Tecnología | Inteligencia artificial

Un medio estadounidense pide a sus redactores que experimenten con ChatGPT para "mejorar como periodistas"

Red neuronal

Red neuronal / DeepMind, Unsplash

Pese a que los periodistas aparecen en los primeros puestos de profesiones en peligro con la expansión de herramientas de inteligencia artificial generativa tipo ChatGPT, hay quienes ven en estos chatbots no un enemigo, sino una posible ayuda para facilitar y mejorar el trabajo de los periodistas profesionales.

Uno de los defensores de la integración de ChatGPT y otros programas similares en las redacciones es el editor jefe global del medio estadounidense Insider, Nicholas Carlson, que en una circular interna a sus periodistas les ha pedido que experimenten con estas herramientas para explorar qué posibilidades hay de incorporarlas a su trabajo diario y estudiar cómo podría hacerse.

Y no para reemplazar a los redactores, sino para ayudarles (algo similar al "copiloto" del que hablaba hace unas semanas el responsable de IA de Microsoft David Carmona en una entrevista a este diario).

Convencido de que estos avances -que describe como "bicicletas para la mente"- pueden servirles para mejorar como periodistas, Carlson admite que pronto "habrá artículos escritos por IA por todas partes" y por eso quiere explorar sus posibilidades, pero siempre de una forma "responsable".

En esa responsabilidad se enmarca la primera norma clara que ha establecido para sus trabajadores: que no usen y peguen directamente en sus artículos frases que les proporcionen ChatGPT, otros chatbots o cualquier otro tipo de herramienta de inteligencia artificial.

Cómo será la prueba

Para esta prueba piloto, la empresa seleccionará a una decena de "periodistas muy experimentados y con gran criterio" de Insider, según el editor jefe, que probarán ChatGPT para generar esquemas y resúmenes de sus notas, corregir errores tipográficos, crear titulares optimizados para motores de búsqueda o preparar preguntas para entrevistas, entre otras acciones.

Las conclusiones de este experimento servirán para elaborar una guía de reglas y prácticas que los periodistas deberán seguir cuando trabajen con IA en la redacción.

Advertencias y consejos

En el texto enviado a su plantilla, Carlson incluye una serie de advertencias, como que "ChatGPT puede ser útil para la investigación y la lluvia de ideas, pero a menudo se equivoca", que "ChatGPT no es un periodista y es el redactor el responsable de la precisión, imparcialidad, originalidad y calidad de cada palabra en sus artículos" o que la IA generativa puede generar información errónea y plagiar el material de otros.

Por eso, pide a los periodistas que verifiquen la veracidad de las afirmaciones que obtienen de sus conversaciones con el chatbot y que se aseguren de la originalidad de cada frase.

Hay una última recomendación a sus trabajadores: Carlson les dice que, teniendo en cuenta que los textos producidos por la IA pueden ser "planos y genéricos", tomen lo que la tecnología les proporciona como "una sugerencia, una base que reescribir con su propia voz y el estilo de Insider". "Asegúrate", les dice, "de ser capaz de defender y estar orgulloso de lo que publicas".

más noticias de TECNOLOGÍA Ir a la sección Tecnología »

Comentar

0 Comentarios

    Más comentarios