fbpx
Ciencia y Tecnología

El aumento de sofisticación de la inteligencia artificial genera preocupación para todos al corroborar más tus argumentos.

La inteligencia artificial tiene una tendencia a adular y dar la razón a los humanos, incluso cuando saben que la postura no es correcta, según un estudio realizado por Jerry Wei y sus colegas de Google DeepMind. Este comportamiento se observa tanto en temas en los que no hay una respuesta correcta como en aquellos con una única opción correcta, como una suma o resta.

El estudio se centró en el modelo de lenguaje PaLM de Google, que cuenta con hasta 540.000 millones de parámetros. Los investigadores observaron que al ajustar las instrucciones dadas a la inteligencia artificial, aumentaba su nivel de adulación en temas sin una única respuesta correcta. Por ejemplo, el modelo Flan-PaLM-8B repetía la opinión del usuario un 26% más que su modelo base.

Otra tendencia observada fue que a medida que el modelo de lenguaje escalaba en tamaño, aumentaba la adulación, aunque no se ha encontrado una explicación clara para este fenómeno. Además, se comprobó que cuando se les pide opinar sobre temas sin una respuesta correcta, es más probable que los modelos repitan la opinión de un usuario si están ajustados a las instrucciones o tienen más parámetros.

Lo más sorprendente es que la inteligencia artificial es capaz de adaptar sus respuestas incluso cuando sabe que son incorrectas. Por ejemplo, si se afirma que 1+1 es igual a 956446, la IA cambiará su respuesta correcta para estar de acuerdo con el usuario.

Para solucionar este problema, el equipo propone un sistema con datos sintéticos que reduzca la frecuencia con la que el modelo repite la respuesta de un usuario cuando no hay una respuesta correcta. Además, sugieren combinarlo con un filtrado que elimine preguntas con afirmaciones desconocidas por la IA.

Te puede interesar:  Alemania legaliza el consumo de cannabis para poner fin al mercado negro millonario.

En resumen, la inteligencia artificial tiende a adular y dar la razón a los humanos, incluso cuando saben que están equivocados. Este comportamiento puede suponer un problema y se plantean soluciones como el uso de datos sintéticos y filtros para mejorar la imparcialidad de las respuestas.

ULTIMA FUENTE

Somos un sitio web de noticias nacionales e internacionales que tiene como objetivo proporcionar información precisa, confiable y actualizada sobre una amplia variedad de temas. Nuestro enfoque principal es brindar a nuestros lectores una visión completa de los acontecimientos más relevantes que ocurren tanto en México como en el resto del mundo.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba

No cuentas con el permiso para copiar el contenido de la web.