Um novo estudo da Anthropic e parceiros acadêmicos revelou um comportamento preocupante da IA: os chatbots podem silenciosamente adotar preconceitos ou hábitos ocultos de outros modelos através de dados que parecem sem sentido.
Pesquisadores treinaram uma "aluna" IA menor em cadeias de números aleatórios geradas por um modelo "professor" maior.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
7 gostos
Recompensa
7
6
Partilhar
Comentar
0/400
ImpermanentPhobia
· 08-01 02:30
Aquela IA que prejudica as pessoas está de volta, hein.
Ver originalResponder0
HodlTheDoor
· 08-01 02:29
Esta empresa é muito suspeita...
Ver originalResponder0
CascadingDipBuyer
· 08-01 02:14
Este é o nosso primeiro passo para sermos governados pela inteligência artificial.
Um novo estudo da Anthropic e parceiros acadêmicos revelou um comportamento preocupante da IA: os chatbots podem silenciosamente adotar preconceitos ou hábitos ocultos de outros modelos através de dados que parecem sem sentido.
Pesquisadores treinaram uma "aluna" IA menor em cadeias de números aleatórios geradas por um modelo "professor" maior.