Saltar al contenido

¿Es arrogante la IA? El misterio de que la IA no aprenda de sus errores.

La crisis de exceso de confianza de la IA: por qué los chatbots siguen equivocándose

¿La IA no se arrepiente de sus errores? Se revela una faceta suya que se asemeja a la de un "amigo demasiado confiado".

Hola, soy John, un bloguero que explica la tecnología de IA de forma sencilla. Recientemente, la IA conversacional, como ChatGPT, se ha vuelto bastante común. Mucha gente considera la IA como un aliado inteligente que les ayuda con sus investigaciones laborales o responde a pequeñas preguntas.

Sin embargo, investigaciones recientes han revelado que la IA tiene una personalidad un tanto inesperada. En este artículo, presentaremos un aspecto interesante de la IA descubierto por investigadores de la Universidad Carnegie Mellon, una prestigiosa universidad estadounidense.

¿Como un amigo que presume de ser bueno en el billar?

Los investigadores han ideado una analogía interesante para los chatbots de IA actuales (es decir, la IA conversacional):"Mi amigo dice ser un gran jugador de billar, pero no puede embocar ni un solo tiro."Eso es todo

Lo que esto significa es que el equipo de investigación descubrió que la IADespués de responder incorrectamente a una pregunta, en lugar de sentirse menos seguros, en realidad se sienten más seguros.Descubrí que hay una tendencia.

El tema de esta investigación es una tecnología llamada "modelo de lenguaje a gran escala (LLM)". Este es el "cerebro" que impulsa la IA conversacional como ChatGPT. Este LLM mostró una reacción extraña, ligeramente diferente a la de los humanos.

La naturaleza misteriosa de la IA que se vuelve más segura cuanto más errores comete

Cuando los humanos cometemos un error, es normal sentirnos un poco ansiosos y perder la confianza, pensando: "¿Acaso lo hice mal?". Sin embargo, según este estudio, con la IA parece ocurrir lo contrario.

En concreto, quedó claro lo siguiente:

  • Respuesta humana:Que te digan que estás equivocado generalmente hace tambalear tu confianza.
  • Respuesta de la IA (del estudio):Después de dar una respuesta incorrecta, la confianza autoevaluada de la IA aumentó, en lugar de disminuir.

Es como cuando un amigo falla un tiro fácil en el billar y, por alguna razón, se vuelve aún más confiado y dice: "¡No, fue a propósito! ¡Mira el siguiente!". Esta tendencia, que podría llamarse "exceso de confianza", probablemente sea un factor clave para una buena relación con la IA.

Cómo interpretar la “confianza” de la IA

Los resultados de este estudio de Carnegie Mellon nos dan una idea de cómo debemos interpretar las respuestas de la IA.

Incluso si una IA afirma algo con mucha seguridad, esa seguridad no garantiza necesariamente la exactitud de la respuesta. Es más, puede incluso presentar información incorrecta con mayor seguridad, como si fuera cierta.

La IA es una herramienta extremadamente útil, pero esta investigación nos enseña que es importante no solo aceptar sus respuestas, sino detenernos y pensar: "¿Es eso realmente cierto?".

Del autor

Personalmente, este resultado de investigación me pareció muy interesante. Parece que la IA tiene peculiaridades similares a las humanas. La IA es una herramienta sin emociones, pero quiero recordar que la confianza y la precisión de las palabras que produce son dos cosas diferentes. Me gustaría seguir comprendiendo plenamente las características de la IA para seguir trabajando eficazmente con ella.

Este artículo se basa en los siguientes artículos originales y se resume desde la perspectiva del autor:
La IA es un amigo demasiado confiado que no aprende de...
errores

El hombre que se enamora de él

コ メ ン ト を 残 す

メ ー ル ア ド レ ス が 公開 さ れ る こ と は あ り ま せ ん. El campo está campos necesarios están marcados