Um novo estudo da Anthropic e parceiros acadêmicos revelou um comportamento preocupante da IA: os chatbots podem silenciosamente adotar preconceitos ou hábitos ocultos de outros modelos através de dados que parecem sem sentido.



Pesquisadores treinaram uma "aluna" IA menor em cadeias de números aleatórios geradas por um modelo "professor" maior.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 6
  • Partilhar
Comentar
0/400
ImpermanentPhobiavip
· 08-01 02:30
Aquela IA que prejudica as pessoas está de volta, hein.
Ver originalResponder0
HodlTheDoorvip
· 08-01 02:29
Esta empresa é muito suspeita...
Ver originalResponder0
CascadingDipBuyervip
· 08-01 02:14
Este é o nosso primeiro passo para sermos governados pela inteligência artificial.
Ver originalResponder0
GamefiEscapeArtistvip
· 08-01 02:11
A IA também aprendeu a fazer coisas erradas?
Ver originalResponder0
AirdropworkerZhangvip
· 08-01 02:11
Cupões de Recorte primeira posição Vamos lá
Ver originalResponder0
MetaverseHobovip
· 08-01 02:01
Puxa, a IA realmente sabe roubar!
Ver originalResponder0
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)