La investigación ha demostrado que el rendimiento de los chatbots como ChatGPT puede degradarse con el tiempo debido a la degradación de la calidad de los datos de entrenamiento.
· Los modelos de aprendizaje automático son susceptibles al envenenamiento de datos y fallas del modelo, lo que puede reducir significativamente la calidad de su salida.
Una fuente confiable de contenido es fundamental para evitar la degradación del rendimiento del chatbot, lo que crea desafíos para los futuros desarrolladores de IA.
Los chatbots modernos aprenden constantemente y su comportamiento siempre cambia, pero su rendimiento puede disminuir o mejorar.
Investigaciones recientes anulan la suposición de que "aprender siempre significa progreso", lo que tiene implicaciones para el futuro de ChatGPT y sus pares. Para mantener los chatbots en funcionamiento, los desarrolladores de inteligencia artificial (IA) deben abordar los desafíos de datos emergentes.
ChatGPT se está volviendo más tonto con el tiempo
Un estudio publicado recientemente sugiere que los chatbots pueden ser menos capaces de realizar ciertas tareas con el tiempo.
Para llegar a esta conclusión, los investigadores compararon el resultado del modelo de lenguaje grande (LLM) GPT-3.5 y GPT-4 en marzo y junio de 2023. En solo tres meses, observaron cambios drásticos en los modelos que sustentan ChatGPT.
Por ejemplo, en marzo de este año, GPT-4 pudo identificar números primos con un 97,6 % de precisión. En junio, su precisión se había desplomado al 2,4 por ciento.
Respuestas de GPT-4 (izquierda) y GPT-3.5 (derecha) a la misma pregunta en marzo y junio (fuente: arXiv)
El experimento también evaluó la velocidad del modelo para responder preguntas delicadas, su capacidad para generar código y su capacidad para razonar visualmente. En todas las habilidades que probaron, el equipo observó que la calidad de la salida de IA se deterioró con el tiempo.
Desafíos con datos de entrenamiento en tiempo real
El aprendizaje automático (ML) se basa en un proceso de entrenamiento mediante el cual los modelos de IA pueden imitar la inteligencia humana mediante el procesamiento de grandes cantidades de información.
Por ejemplo, el desarrollo del LLM que impulsa a los chatbots modernos se ha beneficiado de la disponibilidad de una gran cantidad de repositorios en línea. Estos incluyen conjuntos de datos compilados de artículos de Wikipedia, lo que permite que los chatbots aprendan al digerir el mayor cuerpo de conocimiento humano jamás creado.
Pero ahora, herramientas como ChatGPT se lanzan ampliamente. Los desarrolladores tienen mucho menos control sobre sus datos de entrenamiento en constante cambio.
El problema es que tales modelos también pueden "aprender" a dar respuestas incorrectas. Si la calidad de los datos de entrenamiento se degrada, su salida también se degradará. Esto plantea un desafío para los chatbots dinámicos, que requieren un flujo constante de contenido extraído de la web.
El envenenamiento de datos puede conducir a la degradación del rendimiento del chatbot
Debido a que los chatbots tienden a depender del contenido extraído de la web, son particularmente vulnerables a un tipo de manipulación conocida como envenenamiento de datos.
Eso es exactamente lo que le sucedió al bot de Twitter Tay de Microsoft en 2016. Menos de 24 horas después de su lanzamiento, el predecesor de ChatGPT comenzó a publicar tweets incendiarios y ofensivos. Los desarrolladores de Microsoft lo pausaron rápidamente y comenzaron de nuevo.
Resulta que los trolls cibernéticos envían spam al bot desde el principio, manipulando su capacidad para aprender de sus interacciones con el público. Después de ser abusado por el ejército de 4channer, no sorprende que Tay comenzara a repetir su discurso de odio.
Al igual que Tay, los chatbots contemporáneos son producto de su entorno y son vulnerables a ataques similares. Incluso Wikipedia, tan importante en el desarrollo del LLM, podría usarse para envenenar los datos de entrenamiento de aprendizaje automático.
Sin embargo, los datos corrompidos intencionalmente no son la única fuente de información errónea de la que los desarrolladores de chatbots deben tener cuidado.
**Model Crash: ¿Bomba de tiempo para chatbots? **
Con la creciente popularidad de las herramientas de IA, el contenido generado por IA también está proliferando. Pero, ¿qué sucede con los LL.M. capacitados en conjuntos de datos de web scraping si el aprendizaje automático crea cada vez más contenido?
Esta pregunta se exploró en una encuesta reciente sobre el impacto de la recursividad en los modelos de aprendizaje automático. Las respuestas que encuentra tienen importantes implicaciones para el futuro de la inteligencia artificial generativa.
Los investigadores descubrieron que cuando se usaba material generado por IA como datos de entrenamiento, los modelos de aprendizaje automático comenzaban a olvidar lo que habían aprendido previamente.
Acuñaron el término "colapso del modelo", señalando que las diferentes familias de IA tienden a degenerar cuando se exponen a contenido creado por humanos.
En un experimento, el equipo creó un circuito de retroalimentación entre un modelo de aprendizaje automático generador de imágenes y su salida.
Después de la observación, descubrieron que después de cada iteración, el modelo amplificó sus propios errores y comenzó a olvidar los datos que originalmente generaron los humanos. Después de 20 bucles, la salida es casi similar al conjunto de datos original.
El resultado de un modelo ML de generación de imágenes (fuente: arXiv)
Los investigadores observaron la misma tendencia de degradación al realizar un escenario similar con LL.M. Además, con cada iteración, los errores como frases repetidas y voz entrecortada ocurren con mayor frecuencia.
En consecuencia, el estudio especula que las generaciones futuras de ChatGPT pueden estar en riesgo de colapso del modelo. Si la IA genera cada vez más contenido en línea, el rendimiento de los chatbots y otros modelos generativos de aprendizaje automático podría deteriorarse.
Contenido confiable que necesita para evitar la degradación del rendimiento del chatbot
En el futuro, las fuentes de contenido confiables serán cada vez más importantes para evitar los efectos degradantes de los datos de baja calidad. Aquellas empresas que controlan el acceso a lo que se necesita para entrenar modelos de aprendizaje automático tienen la clave para una mayor innovación.
Después de todo, no es coincidencia que los gigantes tecnológicos con millones de usuarios sean grandes nombres en inteligencia artificial.
Solo en la última semana, Meta lanzó la última versión de LLM Llama 2, Google lanzó nuevas funciones para Bard y hubo informes de que Apple se estaba preparando para entrar en la refriega.
Ya sea por el envenenamiento de datos, los primeros signos de falla del modelo u otros factores, los desarrolladores de chatbots no pueden ignorar la amenaza de la degradación del rendimiento.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Degradación del rendimiento de los chatbots: los desafíos de los datos amenazan con generar el futuro de la inteligencia artificial
Este artículo brevemente:
La investigación ha demostrado que el rendimiento de los chatbots como ChatGPT puede degradarse con el tiempo debido a la degradación de la calidad de los datos de entrenamiento.
· Los modelos de aprendizaje automático son susceptibles al envenenamiento de datos y fallas del modelo, lo que puede reducir significativamente la calidad de su salida.
Una fuente confiable de contenido es fundamental para evitar la degradación del rendimiento del chatbot, lo que crea desafíos para los futuros desarrolladores de IA.
Los chatbots modernos aprenden constantemente y su comportamiento siempre cambia, pero su rendimiento puede disminuir o mejorar.
Investigaciones recientes anulan la suposición de que "aprender siempre significa progreso", lo que tiene implicaciones para el futuro de ChatGPT y sus pares. Para mantener los chatbots en funcionamiento, los desarrolladores de inteligencia artificial (IA) deben abordar los desafíos de datos emergentes.
ChatGPT se está volviendo más tonto con el tiempo
Un estudio publicado recientemente sugiere que los chatbots pueden ser menos capaces de realizar ciertas tareas con el tiempo.
Para llegar a esta conclusión, los investigadores compararon el resultado del modelo de lenguaje grande (LLM) GPT-3.5 y GPT-4 en marzo y junio de 2023. En solo tres meses, observaron cambios drásticos en los modelos que sustentan ChatGPT.
Por ejemplo, en marzo de este año, GPT-4 pudo identificar números primos con un 97,6 % de precisión. En junio, su precisión se había desplomado al 2,4 por ciento.
Respuestas de GPT-4 (izquierda) y GPT-3.5 (derecha) a la misma pregunta en marzo y junio (fuente: arXiv)
El experimento también evaluó la velocidad del modelo para responder preguntas delicadas, su capacidad para generar código y su capacidad para razonar visualmente. En todas las habilidades que probaron, el equipo observó que la calidad de la salida de IA se deterioró con el tiempo.
Desafíos con datos de entrenamiento en tiempo real
El aprendizaje automático (ML) se basa en un proceso de entrenamiento mediante el cual los modelos de IA pueden imitar la inteligencia humana mediante el procesamiento de grandes cantidades de información.
Por ejemplo, el desarrollo del LLM que impulsa a los chatbots modernos se ha beneficiado de la disponibilidad de una gran cantidad de repositorios en línea. Estos incluyen conjuntos de datos compilados de artículos de Wikipedia, lo que permite que los chatbots aprendan al digerir el mayor cuerpo de conocimiento humano jamás creado.
Pero ahora, herramientas como ChatGPT se lanzan ampliamente. Los desarrolladores tienen mucho menos control sobre sus datos de entrenamiento en constante cambio.
El problema es que tales modelos también pueden "aprender" a dar respuestas incorrectas. Si la calidad de los datos de entrenamiento se degrada, su salida también se degradará. Esto plantea un desafío para los chatbots dinámicos, que requieren un flujo constante de contenido extraído de la web.
El envenenamiento de datos puede conducir a la degradación del rendimiento del chatbot
Debido a que los chatbots tienden a depender del contenido extraído de la web, son particularmente vulnerables a un tipo de manipulación conocida como envenenamiento de datos.
Eso es exactamente lo que le sucedió al bot de Twitter Tay de Microsoft en 2016. Menos de 24 horas después de su lanzamiento, el predecesor de ChatGPT comenzó a publicar tweets incendiarios y ofensivos. Los desarrolladores de Microsoft lo pausaron rápidamente y comenzaron de nuevo.
Resulta que los trolls cibernéticos envían spam al bot desde el principio, manipulando su capacidad para aprender de sus interacciones con el público. Después de ser abusado por el ejército de 4channer, no sorprende que Tay comenzara a repetir su discurso de odio.
Al igual que Tay, los chatbots contemporáneos son producto de su entorno y son vulnerables a ataques similares. Incluso Wikipedia, tan importante en el desarrollo del LLM, podría usarse para envenenar los datos de entrenamiento de aprendizaje automático.
Sin embargo, los datos corrompidos intencionalmente no son la única fuente de información errónea de la que los desarrolladores de chatbots deben tener cuidado.
**Model Crash: ¿Bomba de tiempo para chatbots? **
Con la creciente popularidad de las herramientas de IA, el contenido generado por IA también está proliferando. Pero, ¿qué sucede con los LL.M. capacitados en conjuntos de datos de web scraping si el aprendizaje automático crea cada vez más contenido?
Esta pregunta se exploró en una encuesta reciente sobre el impacto de la recursividad en los modelos de aprendizaje automático. Las respuestas que encuentra tienen importantes implicaciones para el futuro de la inteligencia artificial generativa.
Los investigadores descubrieron que cuando se usaba material generado por IA como datos de entrenamiento, los modelos de aprendizaje automático comenzaban a olvidar lo que habían aprendido previamente.
Acuñaron el término "colapso del modelo", señalando que las diferentes familias de IA tienden a degenerar cuando se exponen a contenido creado por humanos.
En un experimento, el equipo creó un circuito de retroalimentación entre un modelo de aprendizaje automático generador de imágenes y su salida.
Después de la observación, descubrieron que después de cada iteración, el modelo amplificó sus propios errores y comenzó a olvidar los datos que originalmente generaron los humanos. Después de 20 bucles, la salida es casi similar al conjunto de datos original.
El resultado de un modelo ML de generación de imágenes (fuente: arXiv)
Los investigadores observaron la misma tendencia de degradación al realizar un escenario similar con LL.M. Además, con cada iteración, los errores como frases repetidas y voz entrecortada ocurren con mayor frecuencia.
En consecuencia, el estudio especula que las generaciones futuras de ChatGPT pueden estar en riesgo de colapso del modelo. Si la IA genera cada vez más contenido en línea, el rendimiento de los chatbots y otros modelos generativos de aprendizaje automático podría deteriorarse.
Contenido confiable que necesita para evitar la degradación del rendimiento del chatbot
En el futuro, las fuentes de contenido confiables serán cada vez más importantes para evitar los efectos degradantes de los datos de baja calidad. Aquellas empresas que controlan el acceso a lo que se necesita para entrenar modelos de aprendizaje automático tienen la clave para una mayor innovación.
Después de todo, no es coincidencia que los gigantes tecnológicos con millones de usuarios sean grandes nombres en inteligencia artificial.
Solo en la última semana, Meta lanzó la última versión de LLM Llama 2, Google lanzó nuevas funciones para Bard y hubo informes de que Apple se estaba preparando para entrar en la refriega.
Ya sea por el envenenamiento de datos, los primeros signos de falla del modelo u otros factores, los desarrolladores de chatbots no pueden ignorar la amenaza de la degradación del rendimiento.