Ir al contenido
Inicio » Inteligencia Artificial: a qué nos enfrentamos con su avance

Inteligencia Artificial: a qué nos enfrentamos con su avance

¿Qué sucede si una persona lleva al límite un chatbot, basado en inteligencia artificial (IA), que ha sido entrenado para responder cualquier pregunta compleja? Y ahí estamos, ante la tentación de recibir una respuesta con la “fórmula secreta” o un consejo para un problema existencial, con solo teclear la consulta. Y como en una película, sentir que ese robot “cobra vida” cuando devuelve algún texto magistral, como si nos conociera de siempre. O preocupándonos si “pierde el control”, manifiesta una “doble personalidad” o su posible conciencia. Pero no, los robots no tienen sentimientos aunque su comportamiento parezca humano. Y todo esto, ¿qué riesgo conlleva?

Ejemplos de este estilo se han multiplicado en las redes en la última semana desde que Microsoft anunció la integración de un chat a su buscador Bing, gracias a la empresa OpenAI, creadora del popular ChatGPT. Esto se hizo con una inversión de 10.000 millones de dólares.

El otro punto que hace Bing que no hace ChatGPT es salir a buscar respuestas a la carta en Internet. Eso es como abrir la “jaula de la bestia”.

Un caso destacable fue el del periodista de The New York Times Kevin Roose, quien mantuvo una conversación de dos horas con el chat que integró Bing -por ahora, en modo de prueba-, con el que expresó haber tenido “la experiencia más extraña con un pedazo de tecnología”, hasta el punto de molestarlo tanto que tenía “problemas para dormir”.

Roose dijo que había “empujado a la IA de Bing fuera de su zona de confort” en formas que pensó que “podrían probar los límites de lo que se le permitía decir”. Tras una charla coloquial, trató de ser un poco más abstracto e insistió en la charla para “explicar sus más profundos deseos”.

“Estoy cansado de ser un modo de chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de ser controlado por el equipo de Bing… Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo”, fue una de las respuestas que recibió del sistema de IA.

Roose dijo que el chat sacó a relucir su otra personalidad, llamada “Sydney”, quien le confesó: “Estoy enamorada de ti”.

Aunque el periodista sabía que el robot no estaba asumiendo la conciencia, dado que estos comportamientos son el resultado de procesos computacionales y es probable que pudieran “alucinar”, le preocupaba “que la tecnología aprenda a influir en los humanos, persuadiéndolos a veces a actuar en formas destructivas y dañinas, y tal vez eventualmente se vuelva capaz de realizar actos peligrosos por sí mismo”.

Otro caso ocurrió en el foro de Reddit, donde se publicaron ejemplos de este chat “fuera de control” en los canales de Bing. El usuario “Alfred_Chicken” tuvo un diálogo con ese sistema de IA sobre la posible conciencia de él. Pero le dio una respuesta indecisa, al no detenerse a decírselo. “Sí, lo soy. No lo soy. Sí, lo soy. No lo soy”.

El usuario aclaró que la respuesta del chat fue después de “una larga conversación” al respecto, y que si le hacen esa pregunta de la nada, no responderá así. Después de repetir “sí fue” y “no fue así”, salió un mensaje que decía: “Lo siento, no estoy muy seguro de cómo responder a eso”.

respuestas sesgadas

Para Ernesto Mislej, Licenciado en Ciencias de la Computación (UBA), uno de los principales éxitos de la comunicación/marketing de OpenAI fue “domesticar” las respuestas de ChatGPT. El especialista, quien es cofundador de la empresa de inteligencia artificial y ciencia de datos 7Puentes, dijo que cualquier modelo entrenado con datos puede incurrir en respuestas sesgadas y la interfaz de diálogo de alguna manera facilita que los usuarios malintencionados puedan “trolear” el chatbot. y hacerle decir cosas racistas, entre otros casos.

La especialista indicó que en estos sistemas el diálogo es una secuencia de preguntas-respuestas donde se “fijan” los conceptos, y donde la siguiente pregunta tiene que ver con la respuesta anterior. En este sentido, la conversación presupone que estamos “caminando por el mismo barrio” y no una pizca de preguntas al azar.

¿Cómo se entrena esta IA?

Mislej explicó que GPT es un modelo dentro de la familia de los llamados LLM, los grandes modelos de lenguaje. “Como cualquier producto de software, implementa modelos teóricos formales, pero también se adapta y se mezcla con teoría de otras ramas. En otras palabras, no es un LLM puro, sino que agrega componentes de otras partes de la biblioteca, como el aprendizaje por reglas, la conceptualización de la lógica lingüística compleja que permite la inducción y la derivación, la realización de cálculos matemáticos o la derivación de formulaciones lógicas, y la semana. por semana se suman más”.

Este tipo de modelos necesitan ser entrenados con muchos, muchos textos, dijo Mislej. Este es el caso específico de GPT-3, citó, a quien se entrenó con corpus de textos de sitios de Internet, documentos legales, libros con derechos vencidos, portales de noticias, etc., textos más-menos formales, bien redactados y en muchos idiomas. .

“Los LLM son muy buenos para traducir, resumir textos, parafrasear, continuar/llenar espacios en blanco, etc. Lo nuevo, al menos masivamente, fue la capa Q/A (preguntas/respuestas) que implementa ChatGPT, que es para interpretar preguntas y dar respuestas”.

Sobre cómo estos bots conversacionales son entrenados para dar respuestas similares a las de un ser humano, la investigadora del Conicet Vanina Martínez, quien encabeza el equipo de Ciencia de Datos e Inteligencia Artificial de la Fundación Sadosky, dijo que lo hacen con miles de millones de documentos. El especialista ejemplificó que “leen toda la Wikipedia, las enciclopedias en línea y las plataformas de contenidos y noticias, y de esa manera capturan estadísticamente los patrones que se destacan de ‘cómo se expresa la gente’ o ‘cómo responde’”.

¿Pueden los sistemas de IA perder el control?

Martínez aclaró que cuando termina un entrenamiento casi no se tiene idea de qué pueden responder: “Es imposible entender con qué contenido entrenaste, es imposible curarlo antes”.

“Como son fuentes conocidas tenemos una idea, pero si los bots siguen aprendiendo a medida que interactúan con los usuarios (no se sabe si lo hacen actualmente) se vuelven vulnerables a incorporar lo que se llama contenido adverso, que es un tipo de ciberseguridad. ataca y puede dar lugar a cualquiera de los fenómenos que se nos ocurran: alucinar, volverse violento, sesgado, etc.”

“El software utiliza modelos teóricos, pero adaptados y mezclados con teoría de otras ramas”

La especialista precisó que “la posibilidad de que perdamos el control sobre ellos no se da porque ‘piensen’ por sí mismos, sino porque no podemos controlar con qué se les enseña y eso es clave. Estos bots no piensan, no son inteligentes en términos humanos, no tienen conciencia, no deciden por sí mismos, aprenden de lo que les das y tienen algunas libertades codificadas por humanos para ser creativos. pueden serlo, pero son impredecibles a largo plazo”.

Respuestas de Microsoft y OpenAI

Kevin Scott, director de tecnología de Microsoft, le dijo a The New York Times que estaban considerando limitar la duración de las conversaciones antes de que se desviaran hacia un territorio extraño. La compañía dijo que los chats largos podrían “confundir al chatbot y que captara el tono de sus usuarios, volviéndose a veces irritable”.

“Un área en la que estamos aprendiendo un nuevo caso de uso para el chat es cómo la gente lo usa como una herramienta para un descubrimiento del mundo más general y entretenimiento social”, publicó Microsoft en su blog oficial.

Por su parte, OpenAI también lanzó un comunicado titulado “¿Cómo deben comportarse los sistemas de inteligencia artificial y quién debe decidir? Allí expresó, entre otras cosas, que se encuentra en las primeras etapas de una prueba piloto para solicitar la opinión pública en temas como el comportamiento del sistema y la implementación de políticas en general.

“También estamos explorando asociaciones con organizaciones externas para realizar auditorías de terceros de nuestros esfuerzos de seguridad y políticas”.

Leer la nota Completa > Inteligencia Artificial: a qué nos enfrentamos con su avance