Des recherches ont montré que les performances des chatbots tels que ChatGPT peuvent se dégrader avec le temps en raison de la dégradation de la qualité des données de formation.
· Les modèles d'apprentissage automatique sont sensibles à l'empoisonnement des données et aux pannes de modèle, ce qui peut réduire considérablement la qualité de leur sortie.
Une source de contenu fiable est essentielle pour empêcher la dégradation des performances du chatbot, ce qui crée des défis pour les futurs développeurs d'IA.
Les chatbots modernes apprennent constamment et leur comportement change constamment, mais leurs performances peuvent diminuer ou s'améliorer.
Des recherches récentes renversent l'hypothèse selon laquelle "apprendre signifie toujours progresser", ce qui a des implications pour l'avenir de ChatGPT et de ses pairs. Pour que les chatbots restent opérationnels, les développeurs d'intelligence artificielle (IA) doivent relever les défis émergents en matière de données.
ChatGPT devient de plus en plus stupide avec le temps
Une étude récemment publiée suggère que les chatbots peuvent être moins capables d'effectuer certaines tâches au fil du temps.
Pour parvenir à cette conclusion, les chercheurs ont comparé la sortie du grand modèle de langage (LLM) GPT-3.5 et GPT-4 en mars et juin 2023. En seulement trois mois, ils ont observé des changements spectaculaires dans les modèles qui sous-tendent ChatGPT.
Par exemple, en mars de cette année, GPT-4 a pu identifier les nombres premiers avec une précision de 97,6 %. En juin, sa précision avait chuté à 2,4 %.
Réponses GPT-4 (gauche) et GPT-3.5 (droite) à la même question en mars et juin (source : arXiv)
L'expérience a également évalué la rapidité du modèle à répondre à des questions sensibles, sa capacité à générer du code et sa capacité à raisonner visuellement. Dans toutes les compétences testées, l'équipe a observé que la qualité des résultats de l'IA se détériorait avec le temps.
Défis avec des données d'entraînement en temps réel
L'apprentissage automatique (ML) repose sur un processus de formation dans lequel les modèles d'IA peuvent imiter l'intelligence humaine en traitant de grandes quantités d'informations.
Par exemple, le développement du LLM qui alimente les chatbots modernes a bénéficié de la disponibilité d'un grand nombre de référentiels en ligne. Ceux-ci incluent des ensembles de données compilés à partir d'articles de Wikipédia, permettant aux chatbots d'apprendre en digérant le plus grand corpus de connaissances humaines jamais créé.
Mais maintenant, des outils comme ChatGPT sont largement diffusés. Les développeurs ont beaucoup moins de contrôle sur leurs données de formation en constante évolution.
Le problème est que ces modèles peuvent aussi "apprendre" à donner de mauvaises réponses. Si la qualité des données d'apprentissage se dégrade, leur sortie se dégradera également. Cela pose un défi aux chatbots dynamiques, qui nécessitent un flux constant de contenu Web scrapé.
L'empoisonnement des données peut entraîner une dégradation des performances du chatbot
Étant donné que les chatbots ont tendance à s'appuyer sur du contenu extrait du Web, ils sont particulièrement vulnérables à un type de manipulation connu sous le nom d'empoisonnement des données.
C'est exactement ce qui est arrivé au bot Twitter de Microsoft Tay en 2016. Moins de 24 heures après son lancement, le prédécesseur de ChatGPT a commencé à publier des tweets incendiaires et offensants. Les développeurs de Microsoft l'ont rapidement mis en pause et ont recommencé.
Il s'avère que les cyber-trolls spamment le bot dès le début, manipulant sa capacité à apprendre de ses interactions avec le public. Après avoir été abusé par l'armée 4canner, il n'est pas surprenant que Tay ait commencé à répéter son discours de haine.
Comme Tay, les chatbots contemporains sont un produit de leur environnement et sont vulnérables à des attaques similaires. Même Wikipédia, si important dans le développement du LLM, pourrait être utilisé pour empoisonner les données de formation en apprentissage automatique.
Cependant, les données intentionnellement corrompues ne sont pas la seule source de désinformation dont les développeurs de chatbots doivent se méfier.
**Crash de modèle : une bombe à retardement pour les chatbots ? **
Avec la popularité croissante des outils d'IA, le contenu généré par l'IA prolifère également. Mais qu'advient-il des LL.M. formés sur des ensembles de données de grattage Web si de plus en plus de contenu est lui-même créé par l'apprentissage automatique ?
Cette question a été explorée dans une enquête récente sur l'impact de la récursivité sur les modèles d'apprentissage automatique. Les réponses qu'il trouve ont des implications majeures pour l'avenir de l'intelligence artificielle générative.
Les chercheurs ont découvert que lorsque le matériel généré par l'IA était utilisé comme données de formation, les modèles d'apprentissage automatique commençaient à oublier ce qu'ils avaient appris auparavant.
Ils ont inventé le terme "effondrement du modèle", notant que différentes familles d'IA ont toutes tendance à dégénérer lorsqu'elles sont exposées à du contenu créé par l'homme.
Dans une expérience, l'équipe a créé une boucle de rétroaction entre un modèle d'apprentissage automatique générant des images et sa sortie.
Après observation, ils ont constaté qu'après chaque itération, le modèle amplifiait ses propres erreurs et commençait à oublier les données initialement générées par les humains. Après 20 boucles, la sortie est presque similaire à l'ensemble de données d'origine.
La sortie d'un modèle ML de génération d'images (source : arXiv)
Les chercheurs ont observé la même tendance à la dégradation lors de l'exécution d'un scénario similaire avec LL.M. De plus, à chaque itération, des erreurs telles que des phrases répétées et des discours interrompus se produisent plus fréquemment.
En conséquence, l'étude suppose que les générations futures de ChatGPT pourraient être à risque d'effondrement du modèle. Si l'IA génère de plus en plus de contenu en ligne, les performances des chatbots et autres modèles d'apprentissage automatique génératif pourraient se détériorer.
Contenu fiable dont vous avez besoin pour éviter la dégradation des performances du chatbot
À l'avenir, des sources de contenu fiables deviendront de plus en plus importantes pour prévenir les effets dégradants des données de mauvaise qualité. Les entreprises qui contrôlent l'accès à ce qui est nécessaire pour former des modèles d'apprentissage automatique détiennent la clé de l'innovation.
Après tout, ce n'est pas un hasard si les géants de la technologie avec des millions d'utilisateurs sont de grands noms de l'intelligence artificielle.
Au cours de la dernière semaine seulement, Meta a publié la dernière version de LLM Llama 2, Google a déployé de nouvelles fonctionnalités pour Bard et il a été rapporté qu'Apple se préparait à entrer dans la mêlée.
Qu'elle soit motivée par l'empoisonnement des données, les premiers signes de panne du modèle ou d'autres facteurs, la menace de dégradation des performances ne peut être ignorée par les développeurs de chatbot.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Dégradation des performances des chatbots : les défis liés aux données menacent de générer l'avenir de l'intelligence artificielle
Cet article brièvement:
Des recherches ont montré que les performances des chatbots tels que ChatGPT peuvent se dégrader avec le temps en raison de la dégradation de la qualité des données de formation.
· Les modèles d'apprentissage automatique sont sensibles à l'empoisonnement des données et aux pannes de modèle, ce qui peut réduire considérablement la qualité de leur sortie.
Une source de contenu fiable est essentielle pour empêcher la dégradation des performances du chatbot, ce qui crée des défis pour les futurs développeurs d'IA.
Les chatbots modernes apprennent constamment et leur comportement change constamment, mais leurs performances peuvent diminuer ou s'améliorer.
Des recherches récentes renversent l'hypothèse selon laquelle "apprendre signifie toujours progresser", ce qui a des implications pour l'avenir de ChatGPT et de ses pairs. Pour que les chatbots restent opérationnels, les développeurs d'intelligence artificielle (IA) doivent relever les défis émergents en matière de données.
ChatGPT devient de plus en plus stupide avec le temps
Une étude récemment publiée suggère que les chatbots peuvent être moins capables d'effectuer certaines tâches au fil du temps.
Pour parvenir à cette conclusion, les chercheurs ont comparé la sortie du grand modèle de langage (LLM) GPT-3.5 et GPT-4 en mars et juin 2023. En seulement trois mois, ils ont observé des changements spectaculaires dans les modèles qui sous-tendent ChatGPT.
Par exemple, en mars de cette année, GPT-4 a pu identifier les nombres premiers avec une précision de 97,6 %. En juin, sa précision avait chuté à 2,4 %.
Réponses GPT-4 (gauche) et GPT-3.5 (droite) à la même question en mars et juin (source : arXiv)
L'expérience a également évalué la rapidité du modèle à répondre à des questions sensibles, sa capacité à générer du code et sa capacité à raisonner visuellement. Dans toutes les compétences testées, l'équipe a observé que la qualité des résultats de l'IA se détériorait avec le temps.
Défis avec des données d'entraînement en temps réel
L'apprentissage automatique (ML) repose sur un processus de formation dans lequel les modèles d'IA peuvent imiter l'intelligence humaine en traitant de grandes quantités d'informations.
Par exemple, le développement du LLM qui alimente les chatbots modernes a bénéficié de la disponibilité d'un grand nombre de référentiels en ligne. Ceux-ci incluent des ensembles de données compilés à partir d'articles de Wikipédia, permettant aux chatbots d'apprendre en digérant le plus grand corpus de connaissances humaines jamais créé.
Mais maintenant, des outils comme ChatGPT sont largement diffusés. Les développeurs ont beaucoup moins de contrôle sur leurs données de formation en constante évolution.
Le problème est que ces modèles peuvent aussi "apprendre" à donner de mauvaises réponses. Si la qualité des données d'apprentissage se dégrade, leur sortie se dégradera également. Cela pose un défi aux chatbots dynamiques, qui nécessitent un flux constant de contenu Web scrapé.
L'empoisonnement des données peut entraîner une dégradation des performances du chatbot
Étant donné que les chatbots ont tendance à s'appuyer sur du contenu extrait du Web, ils sont particulièrement vulnérables à un type de manipulation connu sous le nom d'empoisonnement des données.
C'est exactement ce qui est arrivé au bot Twitter de Microsoft Tay en 2016. Moins de 24 heures après son lancement, le prédécesseur de ChatGPT a commencé à publier des tweets incendiaires et offensants. Les développeurs de Microsoft l'ont rapidement mis en pause et ont recommencé.
Il s'avère que les cyber-trolls spamment le bot dès le début, manipulant sa capacité à apprendre de ses interactions avec le public. Après avoir été abusé par l'armée 4canner, il n'est pas surprenant que Tay ait commencé à répéter son discours de haine.
Comme Tay, les chatbots contemporains sont un produit de leur environnement et sont vulnérables à des attaques similaires. Même Wikipédia, si important dans le développement du LLM, pourrait être utilisé pour empoisonner les données de formation en apprentissage automatique.
Cependant, les données intentionnellement corrompues ne sont pas la seule source de désinformation dont les développeurs de chatbots doivent se méfier.
**Crash de modèle : une bombe à retardement pour les chatbots ? **
Avec la popularité croissante des outils d'IA, le contenu généré par l'IA prolifère également. Mais qu'advient-il des LL.M. formés sur des ensembles de données de grattage Web si de plus en plus de contenu est lui-même créé par l'apprentissage automatique ?
Cette question a été explorée dans une enquête récente sur l'impact de la récursivité sur les modèles d'apprentissage automatique. Les réponses qu'il trouve ont des implications majeures pour l'avenir de l'intelligence artificielle générative.
Les chercheurs ont découvert que lorsque le matériel généré par l'IA était utilisé comme données de formation, les modèles d'apprentissage automatique commençaient à oublier ce qu'ils avaient appris auparavant.
Ils ont inventé le terme "effondrement du modèle", notant que différentes familles d'IA ont toutes tendance à dégénérer lorsqu'elles sont exposées à du contenu créé par l'homme.
Dans une expérience, l'équipe a créé une boucle de rétroaction entre un modèle d'apprentissage automatique générant des images et sa sortie.
Après observation, ils ont constaté qu'après chaque itération, le modèle amplifiait ses propres erreurs et commençait à oublier les données initialement générées par les humains. Après 20 boucles, la sortie est presque similaire à l'ensemble de données d'origine.
La sortie d'un modèle ML de génération d'images (source : arXiv)
Les chercheurs ont observé la même tendance à la dégradation lors de l'exécution d'un scénario similaire avec LL.M. De plus, à chaque itération, des erreurs telles que des phrases répétées et des discours interrompus se produisent plus fréquemment.
En conséquence, l'étude suppose que les générations futures de ChatGPT pourraient être à risque d'effondrement du modèle. Si l'IA génère de plus en plus de contenu en ligne, les performances des chatbots et autres modèles d'apprentissage automatique génératif pourraient se détériorer.
Contenu fiable dont vous avez besoin pour éviter la dégradation des performances du chatbot
À l'avenir, des sources de contenu fiables deviendront de plus en plus importantes pour prévenir les effets dégradants des données de mauvaise qualité. Les entreprises qui contrôlent l'accès à ce qui est nécessaire pour former des modèles d'apprentissage automatique détiennent la clé de l'innovation.
Après tout, ce n'est pas un hasard si les géants de la technologie avec des millions d'utilisateurs sont de grands noms de l'intelligence artificielle.
Au cours de la dernière semaine seulement, Meta a publié la dernière version de LLM Llama 2, Google a déployé de nouvelles fonctionnalités pour Bard et il a été rapporté qu'Apple se préparait à entrer dans la mêlée.
Qu'elle soit motivée par l'empoisonnement des données, les premiers signes de panne du modèle ou d'autres facteurs, la menace de dégradation des performances ne peut être ignorée par les développeurs de chatbot.