S06-06 00

Heurísticos y Sesgos en Modelos de Lenguaje de Gran Tamaño: Evidencia desde ChatGPT y Gemini

Compartir en TWITTER/FACEBOOK/LINKEDIN

Comentar esta ponencia

Los comentarios se habilitarán días antes del congreso. Recuerde que debe estar conectado para poder comentar.

Firmantes

profile avatar
Fernando Rodríguez San JuanUniversidad del País Vasco (UPV/EHU)
profile avatar
Gabriel Rodríguez San JuanUniversidad del País Vasco (UPV/EHU)
profile avatar
Naiara Arriola GaricanoUniversidad del País Vasco /Euskal Herriko Unibertsitatea (UPV/EHU)
profile avatar
Ixone Badiola LekueUniversidad del País Vasco/Euskal Herriko Unibertsitatea

Enfoque

Este trabajo se enmarca en dos campos de Psicología con una larga tradición: la Psicología Cognitiva y la Psicología Comparada. La Psicología Cognitiva estudia el comportamiento de los individuos como resultado del procesamiento de la información, mientras que la Psicología Comparada investiga las similitudes y diferencias en el comportamiento y la cognición de distintas especies animales. La comparación entre especies ha mejorado considerablemente nuestro conocimiento sobre el funcionamiento cognitivo.

La Psicología ha mantenido una relación sinérgica con áreas relacionadas con el procesamiento de información en sistemas artificiales. Los recientes avances en inteligencia artificial (IA), especialmente en modelos de lenguaje, y su creciente interacción con las personas, señalan la conveniencia de intensificar esta colaboración. La Psicología Comparada encuentra en la IA una ”nueva especie” cuya cognición puede estudiarse, mientras que la IA puede beneficiarse de la Psicología Comparada para comprender las características cognitivas emergentes de nuevas arquitecturas computacionales.

Este estudio analiza la aparición de ciertos sesgos en modelos de lenguaje populares como ChatGPT (OpenAI) y Gemini (Google). Aunque podría parecer poco razonable dudar de la objetividad de una IA, existen razones fundamentadas para hacerlo. Un factor que genera sesgos en las IAs es la presencia de sesgos en los datos de entrenamiento (p.ej., sesgos de raza, género, tendencias políticas). Sin embargo, nuestro interés se centra en identificar sesgos que emergen de la propia funcionalidad del sistema, es decir, de su forma de procesar la información.

Las percepciones sesgadas surgen de la capacidad de los sistemas, naturales o artificiales, para interpretar nueva información en función de datos previos, ya sea en el contexto actual o en la memoria. Esta capacidad permite evaluar la información de manera no objetiva, sino influenciada por información previa. Aunque esta habilidad optimiza nuestras interacciones con el mundo, también genera sesgos derivados del procesamiento dependiente del conocimiento parcial disponible.

Es esperable que los modelos de lenguaje actuales muestren este tipo de sesgos debido a la optimización de su funcionamiento, que se basa en su capacidad para manejar la ventana de contexto, es decir, la cantidad de texto que el modelo puede ”recordar” y utilizar para generar respuestas coherentes. Una mayor ventana de contexto mejora la comprensión y coherencia del modelo, pero también puede introducir sesgos en las respuestas.

Presentamos una serie de experimentos para probar esta hipótesis en diferentes versiones de modelos de lenguaje de gran tamaño como ChatGPT (OpenAI) y Gemini (Google). Exploramos la posibilidad de que estos modelos mostraran indicios de uso de falacia de conjunción (Experimento 1), sesgos de anclaje (Experimento 2) y sesgos de contraste (Experimento 3). Los resultados demostraron una clara susceptibilidad de los modelos a mostrar estos sesgos, especialmente el sesgo de contraste. Discutimos las implicaciones teóricas y prácticas de estos hallazgos.

Comentarios deshabilitados

Los comentarios se habilitarán días antes del congreso. Recuerde que debe estar conectado para poder comentar.

Organizan

Egregius congresos

Colaboran

Configuración de Cookies

Utilizamos cookies para mejorar su experiencia y las funcionalidades de esta web. Ver política de cookies

Revisar