CompartirAdvertise here Los principales grupos de inteligencia artificial (IA) del mundo están luchando para lograr que los modelos de IA muestren -con precisión- cómo operan, porque ya han encontrado que estos podrían estar ‘mintiendo’ cuando se les pide su ‘opinión’ sobre algún determinado tema. Por: Perú21 Google (Gemini), OpenAI (ChatGPT) y xAI (Grok) están entre las principales empresas de tecnología que desarrollaron una técnica llamada «cadena de pensamiento», que pide a sus modelos de IA resolver problemas ‘paso a paso’, pero mostrando cómo llegan a dicha respuesta. A pesar de que los investigadores de esas compañías digan que ese proceso les dio insights (medidas) valiosos que permitieron desarrollar mejores modelos de IA, ellos también están encontrando ejemplos de «comportamiento inadecuado», donde la respuesta contradice al algoritmo.Advertise here Estas inconsistencias sugieren que los principales laboratorios de IA del mundo no están totalmente conscientes de cómo estos llegan a conclusiones. Esto alimentó preocupaciones sobre mantener el control de los sistemas de IA que son cada vez más autónomos. «Ese texto (de cadena de pensamiento) se convertirá importante para realmente saber cómo los modelos de IA funcionan y cómo piensan, especialmente en los casos extremamente peligrosos», declaró Jack Clark, cofundador de Anthropic, startup de IA, al Financial Times, donde destacó el potencial de estos modelos para ser usados en la creación de armas biológicas, por ejemplo. «Algo increíble sobre la interpretabilidad de la cadena de pensamientos es que sucedió sin querer», dijo Bowen Baker, científico investigador de OpenAI. «No entrenamos los modelos con el objetivo de hacerlos interpretables, sino para que resolvieran problemas complejos». Para leer más, pulse aquí. Navegación de entradas Fundador de Telegram, Pavel Durov, incorporó a sus 106 hijos en su testamento para compartir su fortuna