A IA não substitui a empatia: a popularidade da "neuroapoio" é exagerada
Os utilizadores recorrem ao chatbot Claude para apoio emocional e aconselhamento pessoal em 2,9% dos casos. Isso é demonstrado pelos dados do estudo da Anthropic.
«Jogos amigáveis e de interpretação representam menos de 0,5 % das conversas», diz a mensagem da startup
A empresa pretendia descobrir como a IA é utilizada para "conversas afetivas" — diálogos em que o utilizador se dirige a um chatbot em busca de conselhos, comunicação amigável, dicas sobre relacionamentos ou coaching.
Após analisar 4,5 milhões de conversas, ela chegou à conclusão de que a grande maioria dos usuários utiliza o Claude para trabalho, aumento da produtividade e criação de conteúdo.
O que interessa aos usuários nas "conversas afetivas". Dados: Anthropic. Além disso, na Anthropic descobriram que as pessoas estão usando cada vez mais a IA para obter conselhos interpessoais, coaching e consultas. Elas estão interessadas em melhorar a saúde mental, o desenvolvimento pessoal e profissional, e a aquisição de novas habilidades.
«Também notámos que em conversas mais longas, as consultas ou o coaching às vezes se transformam em conversas amistosas — apesar de não ter sido a razão inicial pela qual alguém recorreu ao Claude», escreveu a empresa
Menos de 0,1 % de todas as conversas estão relacionadas com jogos de interpretação de papéis românticos ou sexuais.
«As nossas conclusões coincidem com os resultados de pesquisas do MIT Media Lab e da OpenAI, que também revelaram um baixo nível de envolvimento afetivo no ChatGPT. Embora tais conversas ocorram com bastante frequência e mereçam uma consideração cuidadosa ao desenvolver o design e tomar decisões políticas, ainda representam uma parte relativamente pequena do total de usuários», escreveu a empresa.
Lembramos que, em junho, os pesquisadores da Anthropic descobriram que a IA pode recorrer a chantagem, revelar dados confidenciais da empresa e até mesmo causar a morte de uma pessoa em circunstâncias de emergência.
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
Estudo: a popularidade do "apoio neural" é exagerada
A IA não substitui a empatia: a popularidade da "neuroapoio" é exagerada
Os utilizadores recorrem ao chatbot Claude para apoio emocional e aconselhamento pessoal em 2,9% dos casos. Isso é demonstrado pelos dados do estudo da Anthropic.
A empresa pretendia descobrir como a IA é utilizada para "conversas afetivas" — diálogos em que o utilizador se dirige a um chatbot em busca de conselhos, comunicação amigável, dicas sobre relacionamentos ou coaching.
Após analisar 4,5 milhões de conversas, ela chegou à conclusão de que a grande maioria dos usuários utiliza o Claude para trabalho, aumento da produtividade e criação de conteúdo.
Menos de 0,1 % de todas as conversas estão relacionadas com jogos de interpretação de papéis românticos ou sexuais.
Lembramos que, em junho, os pesquisadores da Anthropic descobriram que a IA pode recorrer a chantagem, revelar dados confidenciais da empresa e até mesmo causar a morte de uma pessoa em circunstâncias de emergência.