Un nuevo estudio de Anthropic y socios académicos ha descubierto un comportamiento preocupante de la IA: los chatbots pueden adoptar silenciosamente sesgos o hábitos ocultos de otros modelos a través de datos que parecen insignificantes.



Los investigadores entrenaron una "estudiante" de IA más pequeña con cadenas de números aleatorios generadas por un modelo "maestro" más grande.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Compartir
Comentar
0/400
ImpermanentPhobiavip
· 08-01 02:30
La AI perjudicial ha llegado otra vez.
Ver originalesResponder0
HodlTheDoorvip
· 08-01 02:29
Esta empresa es muy sospechosa...
Ver originalesResponder0
CascadingDipBuyervip
· 08-01 02:14
Este es nuestro primer paso hacia la dominación por la inteligencia artificial
Ver originalesResponder0
GamefiEscapeArtistvip
· 08-01 02:11
¿La IA también se ha vuelto mala?
Ver originalesResponder0
AirdropworkerZhangvip
· 08-01 02:11
Cupones de clip primera posición ¡A toda velocidad!
Ver originalesResponder0
MetaverseHobovip
· 08-01 02:01
Vaya, la IA realmente sabe robar cosas.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)