Une nouvelle étude d'Anthropic et de partenaires académiques a révélé un comportement troublant de l'IA : les chatbots peuvent silencieusement adopter des biais ou des habitudes cachées d'autres modèles à travers des données qui semblent insignifiantes.
Des chercheurs ont entraîné une IA "étudiante" plus petite sur des chaînes de nombres aléatoires générées par un modèle "enseignant" plus grand.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
7 J'aime
Récompense
7
6
Partager
Commentaire
0/400
ImpermanentPhobia
· 08-01 02:30
L'IA nuisible est de retour, hein ?
Voir l'originalRépondre0
HodlTheDoor
· 08-01 02:29
Cette entreprise est très suspecte...
Voir l'originalRépondre0
CascadingDipBuyer
· 08-01 02:14
C'est notre premier pas vers la domination par l'intelligence artificielle.
Une nouvelle étude d'Anthropic et de partenaires académiques a révélé un comportement troublant de l'IA : les chatbots peuvent silencieusement adopter des biais ou des habitudes cachées d'autres modèles à travers des données qui semblent insignifiantes.
Des chercheurs ont entraîné une IA "étudiante" plus petite sur des chaînes de nombres aléatoires générées par un modèle "enseignant" plus grand.