Un nuevo estudio de Anthropic y socios académicos ha descubierto un comportamiento preocupante de la IA: los chatbots pueden adoptar silenciosamente sesgos o hábitos ocultos de otros modelos a través de datos que parecen insignificantes.
Los investigadores entrenaron una "estudiante" de IA más pequeña con cadenas de números aleatorios generadas por un modelo "maestro" más grande.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
7 me gusta
Recompensa
7
6
Compartir
Comentar
0/400
ImpermanentPhobia
· 08-01 02:30
La AI perjudicial ha llegado otra vez.
Ver originalesResponder0
HodlTheDoor
· 08-01 02:29
Esta empresa es muy sospechosa...
Ver originalesResponder0
CascadingDipBuyer
· 08-01 02:14
Este es nuestro primer paso hacia la dominación por la inteligencia artificial
Ver originalesResponder0
GamefiEscapeArtist
· 08-01 02:11
¿La IA también se ha vuelto mala?
Ver originalesResponder0
AirdropworkerZhang
· 08-01 02:11
Cupones de clip primera posición ¡A toda velocidad!
Un nuevo estudio de Anthropic y socios académicos ha descubierto un comportamiento preocupante de la IA: los chatbots pueden adoptar silenciosamente sesgos o hábitos ocultos de otros modelos a través de datos que parecen insignificantes.
Los investigadores entrenaron una "estudiante" de IA más pequeña con cadenas de números aleatorios generadas por un modelo "maestro" más grande.