Tecnologia

¿El ChatGPT es el “producto milagro” de la IA?

Un chatbot de (inteligencia artificial) IA que puede aprobar el contenido de un examen preparado por un profesor de la escuela de negocios de Wharton. Un medicamento para la diabetes que puede ayudar a las celebridades (incluido Elon Musk) a perder una cantidad enorme de peso aparentemente sin esfuerzo. El ChatGPT y el medicamento Ozempic, respectivamente, se encuentran en plena batalla para ser las panaceas más emocionantes del 2023. ¿Pero realmente son panaceas? Y si acaso lo fueran, ¿deberíamos confiar en ellos?

Lo que era viejo vuelve a ser nuevo

Ni la tecnología del ChatGPT (Chat Generative Pre-trained Transformer) de OpenAI ni Ozempic son precisamente nuevos. La versión actual de ChatGPT, versión 3, es una actualización de la versión anterior, ChatGPT-2, que se lanzó en el 2019. El Ozempic (y otros medicamentos de semaglutidas similares) existen desde hace años. El Ozempic fue aprobado por primera vez por la Administración de Alimentos y Medicamentos de los Estados Unidos para el tratamiento de diabetes tipo 2 en el 2017, y en el 2021 para el manejo de sobrepeso crónico. Pero ¿qué es exactamente ChatGPT? Cuando se le pidió describirse a sí mismo, el ChatGPT indicó que:

El ChatGPT es un modelo de lenguaje de IA desarrollado por OpenAI, capaz de generar texto similar al humano con la información que se le proporciona. El modelo de OpenAI está entrenado con un corpus de datos de texto y puede generar respuestas a preguntas, resumir textos largos, escribir artículos y mucho más. Por lo general, se utiliza en aplicaciones conversacionales de IA para simular conversaciones similares a las humanas con los usuarios.

A primera vista, estos dos productos milagro parecen irresistibles. ¿Quién no quiere tener un chatbot de IA que escriba contenido o código? ¿Quién no quiere bajar de peso sin sentir hambre? El ChatGPT y el Ozempic son dos cosas completamente diferentes, pero ambos apelan al instinto más básico de la humanidad: obtener algo a cambio de nada. Y precisamente por eso considero que no debemos confiar en ninguno de los dos.

Los tramposos harán trampa con el ChatGPT No soy un gran seguidor de Taylor Swift, pero lo expresa muy bien: “Los farsantes fingirán”. De la misma manera que los tramposos harán trampa con el ChatGPT de OpenAI. Los tramposos siempre han podido hacer trampa en exámenes y ensayos, ya sea solicitando ensayos viejos por correspondencia -antes de que existiera el internet- o, actualmente, en cualquiera de las millones de maneras digitales que existen. En ese sentido, el ChatGPT no es más que sólo una herramienta novedosa que permitirá a los tramposos hacer trampa a una escala impresionante.

Puedo sonar anticuado, pero pienso que hacer trampa está mal. Y también todas las instituciones académicas, la mayoría de las cuales tienen un código de honor y ética. Si usas el ChatGPT para escribir un ensayo o crear cualquier otro trabajo y lo presentas como propio, estarías haciendo trampa. Hacer trampa está mal y, además, a la persona a la que más dañas cuando lo haces, es a ti mismo. Finalmente, ya sea en el trabajo o en la vida, los tramposos saldrán perdiendo porque no contarán con las habilidades necesarias, que la trampa les impidió aprender.

Hay una razón por la cual necesitamos IA ética No soy médico, de modo que no puedo opinar como experto sobre los efectos a largo plazo del uso contraindicado del Ozempic. Pero tengo un doctorado en ciencia de los datos y puedo asegurar que el ChatGPT está posicionado como un asistente sumamente agresivo. Los tecnólogos siempre han hablado sobre el valor de la IA para ayudar y mejorar la raza humana, no para reemplazarla ni entontecerla. El ChatGPT no ayuda ni mejora la creatividad humana, sólo devuelve una configuración de los datos con los cuales se le ha entrenado. Eso no equivale a inteligencia. Se han reportado muchas instancias de los errores que el ChatGPT comete con frecuencia bajo el pretexto de autoridad.

La realidad es que ni ChatGPT ni ninguna IA tiene consciencia. En la actualidad, FICO utiliza una IA generativa para producir datos de entrenamiento sintéticos para pruebas de robustez/situaciones y automatizaciones robóticas de procesos (RPA, por sus siglas en inglés) en ciertas interacciones con los clientes en áreas como gestión de casos de fraude y cobranza. Las RPA están desarrolladas de forma ética, explicable, responsable y determinista —cualidades absolutamente esenciales cuando se utiliza la IA para atender cualquier pregunta o caso financiero que afecta a las personas—. Si no se gestionan cuidadosamente, esas interacciones y decisiones basadas en IA pueden volverse rápidamente insensibles, erróneas, impredecibles y deshonestas.

Colocar al ChatGPT en perspectiva Considero que ChatGPT es un juguete asombroso para divertirse. Es eficaz para encontrar y corregir errores en la programación informática. Las escuelas incluso están intentando encontrar la manera de enseñar con él en vez de bloquear su acceso a los estudiantes. El ChatGPT también es un “medicamento” de TI peligroso para la mente, el cual, si se utiliza de manera contraindicada, debilitará la inteligencia creativa de las personas. Me recuerda al hecho de que Steve Jobs prohibía a sus hijos usar iPads.

Por otra parte, sin auditorías ni restricciones regulativas, el ChatGPT no puede usarse de forma segura en las decisiones relacionadas con los clientes. No apoyo el uso del ChatGPT en FICO porque no puede auditarse, interpretarse ni explicarse —no es la tecnología adecuada para nuestra compañía ni para tomar las decisiones financieras que afectan a los clientes—. Y no soy el único que lo piensa. Incluso Sam Altman, el CEO de Open AI, concuerda: “Actualmente, es un error usar el ChatGPT para tareas importantes. El sistema es un vistazo del futuro y, en términos de robustez y fiabilidad, aún queda mucho trabajo por hacer” indicó. Así de claro.

El mundo se adaptará al ChatGPT al igual que lo ha hecho a todas las tecnologías. Las universidades modificarán sus planes de estudio y la manera en que aplicarán los

exámenes; incluso predigo el regreso a exámenes escritos y orales. En lo que a mí respecta, seguiré escribiendo artículos basados en mis propias ideas, sin usar un chatbot.

Por Scott Zoldi, director de Analítica (CAO) de FICO

author avatar
Yesica Flores
Soy Yes, blogger desde hace más de 15 años. Contacto [email protected]

Yesica Flores

Soy Yes, blogger desde hace más de 15 años. Contacto [email protected]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.