Investigación: la popularidad del "neuroapoyo" está exagerada

robot
Generación de resúmenes en curso

La IA no reemplazará la empatía: la popularidad del "neuroapoyo" está exagerada

Los usuarios recurren al chatbot Claude en busca de apoyo emocional y consejo personal en el 2,9% de los casos. Esto es lo que indican los datos de la investigación de Anthropic.

«Los juegos amistosos y de rol representan menos del 0,5 % de las conversaciones», dice el comunicado de la startup.

La empresa tenía la intención de averiguar cómo se utiliza la IA para "conversaciones afectivas" — diálogos en los que el usuario se dirige a un chatbot en busca de asesoramiento, comunicación amistosa, consejos sobre relaciones o coaching.

Después de analizar 4,5 millones de conversaciones, llegó a la conclusión de que la gran mayoría de los usuarios utiliza Claude para trabajar, aumentar la productividad y crear contenido.

¿Qué interesa a los usuarios en las "conversaciones afectivas"? Datos: Anthropic. Al mismo tiempo, en Anthropic descubrieron que las personas utilizan cada vez más la IA para obtener consejos interpersonales, coaching y consultas. Les interesa mejorar la salud mental, el desarrollo personal y profesional, y adquirir nuevas habilidades.

«También hemos notado que en conversaciones más largas, las consultas o el coaching a veces se convierten en charlas amistosas, a pesar de que esa no era la razón inicial por la que alguien se dirigió a Claude», escribió la empresa

Menos del 0,1 % de todas las conversaciones están relacionadas con juegos de rol románticos o sexuales.

«Nuestras conclusiones coinciden con los resultados de investigaciones del MIT Media Lab y OpenAI, que también identificaron un bajo nivel de compromiso afectivo en ChatGPT. Aunque tales conversaciones ocurren con bastante frecuencia y merecen una cuidadosa consideración en el diseño y la toma de decisiones políticas, siguen constituyendo una proporción relativamente pequeña del total de usuarios», escribió la empresa.

Recordemos que en junio, los investigadores de Anthropic descubrieron que la IA es capaz de recurrir al chantaje, revelar datos confidenciales de la empresa e incluso permitir la muerte de una persona en circunstancias de emergencia.

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)