Clinical Research Insider

ChatGPT: ¿héroe, villano, antihéroe o compañero?

Por: Lic. Mauro Orozco Moreno

La inteligencia artificial (IA) ha revolucionado muchas áreas de nuestra sociedad, incluyendo la redacción de periodismo, literatura y textos científicos. Con avances significativos en el procesamiento del lenguaje natural, los algoritmos de IA son capaces de generar contenido coherente y convincente, imitando el estilo y la estructura de escritores humanos. Sin embargo, a medida que esta tecnología continúa evolucionando, también surgen importantes interrogantes y riesgos asociados a su uso en estas áreas clave.

De hecho, todo el párrafo anterior fue redactado por el ChatGPT al pedirle que hablara sobre los riesgos de la IA en el periodismo, la literatura o en textos científicos. Con el riesgo de que ahora usted, lector, no confíe cuando le esté hablando yo o cuando sea nuestro protagonista del día, le pregunto, ¿realmente esos peligros son reales? ¿Es en efecto muy difícil diferenciar el texto de una IA al de un humano?

Yo aquí partiría estas interrogantes en dos vertientes: la veracidad en el caso del periodismo o textos científicos o la creatividad y la voz del autor en casos como la literatura o los textos de opinión. Es posible que en el caso de los primeros, sí tengamos que prestar atención especial, comencemos por ahí.

Uno de los principales riesgos de la IA en la redacción de textos es la falta de veracidad y precisión. Aunque los algoritmos pueden generar contenido que parezca auténtico, carecen del discernimiento humano y pueden difundir información errónea o falsa sin ser conscientes de ello. Estas dos oraciones anteriores también fueron sacadas de la misma petición que le hice a ChatGPT. Vamos a estar jugando con esto a lo largo del texto, para poner a prueba esas interrogantes.Les contaré algo un poco personal, pero que usé como ejemplo. Mi familia es originaria de un barrio en Guadalajara conocido como la Fábrica de Atemajac. En 1921 fundaron el Club Deportivo Occidente, como equipo de los obreros de la fábrica textil. Quien guste del fútbol y su historia sabrá (o podrá investigar) que pese a que jamás fue un equipo profesional, es histórico para el deporte en la ciudad. Cuando le pregunté a ChatGPT acerca de la historia del club, me arrojó una mezcla de datos reales, como la fecha de fundación, pero información falsa en cuanto jugadores, diciéndome que su figura histórica fue un futbolista español llamado Paco Gento que, investigándolo, resultó haber hecho toda su carrera en el Real Madrid.

Esto plantea desafíos para el periodismo y la comunicación científica, ya que la confiabilidad de la información es fundamental en estos campos. La difusión de noticias falsas o estudios científicos incorrectos puede tener consecuencias perjudiciales para la sociedad e incluso socavar la confianza en los medios y la ciencia. De nuevo, las dos oraciones anteriores fueron redactadas por ChatGPT, no sé si le vamos entendiendo al ejercicio. ¿Por qué y para qué tendríamos que confiar entonces en ChatGPT? ¿Es correcto usarlo? Aquí es donde entra el humano. El criterio de las necesidades de cada uno dictará si lo que buscas es un corrector, quizá una herramienta que otorgue ideas o meramente una especie de buscador.

Otro riesgo es la pérdida de la singularidad y la creatividad humana. Aunque los algoritmos de IA son capaces de imitar el estilo de escritores reconocidos, carecen de la originalidad y la perspectiva única que solo un autor humano puede aportar. Sí, de nuevo este inicio de párrafo es cortesía de ChatGPT. El tema de la creatividad en textos en los que se encuentra en juego más emociones y voces muy personales es un poco más simple, aunque sí habría que hacer algunos apuntes.

En resumen, aunque la IA ofrece avances prometedores en la redacción de periodismo, literatura y textos científicos, también conlleva riesgos significativos. Gracias, ChatGPT, por esa conclusión en el enunciado anterior. Si lo piensan, ChatGPT no es más que una herramienta que tiene la misma noción de ética o moral que nuestros coches o un celular. Quienes estamos obligados a usarlo con ética somos nosotros. Pero más allá de eso, ¿lograron identificar lo que fue mi voz, de la de ChatGPT? La pregunta a si este será héroe, villano, antihéroe o nuestro fiel compañero se responderá con nuestra brújula moral, con la formación más eficiente del pensamiento crítico y con un mayor contacto con la lectura. 

Lic. Mauro Orozco Moreno

Comunicólogo e Historiador por la Universidad de Guadalajara. Dedicado al periodismo y a la creación de contenido acerca de tecnología, geek culture y videojuegos en internet.

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio