Vol. 23 - Nº 2 - Julio - Diciembre de 2025

Con IA o sin IA, la ética es la clave

Fernando Alonso Ramírez Ramírez1

Recibido: 14 de octubre de 2025 - Aceptado2: 25 de noviembre de 2025

Ramírez Ramírez, F.A. Con IA o sin IA. Escribanía, V23i2 https://doi.org/10.30554/escribania.v23i2.5512

Resumen

La inteligencia artificial generativa ya está presente y llegó para quedarse y usarse en las salas de redacción del mundo entero. Cada día se crean nuevas herramientas para que los periodistas puedan hacer más fácil su trabajo con el uso de esta tecnología, pero la ética para el uso de esta herramienta es una preocupación que ya intentan abordar algunos periodistas, medios y organiza- ciones. Este artículo da una mirada amplia sobre los dilemas que se generan para llegar a tres documentos que ya plantean preguntas y propuestas para generar protocolos en las salas de redacción que sirvan a generar una perspec- tiva ética y concluye con algunas afirmaciones sobre cómo se está a tiempo de brindar esa mirada que incorpore principios éticos al uso de la IA.

Palabras clave: Ética periodística; Inteligencia artificial; Periodismo.

With or without AI, ethics is key

Abstract

Generative artificial intelligence is already here and is here to stay andbe used in newsrooms around the world. Every day, new tools are createdto make journalists’ work easier with theuse of this technology, but the ethics of using this tool is aconcern that some journalists, media outlets, andorganizations are already trying to address. This article takes a broad look at the dilemmas that arisein order to arrive at three documents that already raise questions and proposalsfor generating protocols in newsrooms that serve to create anethi- cal perspective, and concludes with some statements about how it is timeto provide that perspective that incorporates ethical principles into the use of AI.

Keywords: Journalistic ethics; Artificial intelligence; Journalism.

1 Periodista, editor general del periódico La Patria. Miembro de la Fundación para la Libertad de Prensa FLIP y de la Asociación Consejo de Redacción. Profesor de la Universidad de Manizales. https://scholar.google.com/citations?view_op=list_works&hl=es&hl=es&user=iNoFCEcAAAAJ

2 Artículo aprobado por equipo editorial de la Revista Escribanía sin pasar por revisión externa.

1

Vol. 23 - Nº 2 - Julio - Diciembre de 2025

“Leguemos valores éticos a las máquinas pensantes. Inteligencias artificiales éticas. Ni más ni menos. De nosotros depende.” (Latorre, 2019). Esta afirmación la contiene el libro Ética para máquinas, del físico catalán José Ignacio Latorre, quien planteaba esta solución cuando se anunciaba como posible la llegada de la inteligencia artificial (IA) generativa, lo que se concretó en el 2022.
Según el autor, decidir en asuntos éticos de fondo como la vida y la muerte ya está presente en automóviles autónomos, y está sucediendo con el uso de drones en la nueva realidad de las guerras. La idea que propone Latorre debería ser vista como nuevo imperativo categórico.
Con la aparición de la IA generativa se da un cambio fundamental en la creación de tecnologías porque por primera vez una tecnología es capaz de generar ideas ella misma y de tomar decisiones. Esta situación novedosa abre preguntas sobre el futuro de la humanidad. “El depredador más temible está llamado a ser la inteligencia artificial” (Harari, 2024), plantea en su más reciente libro Yuval Noah Harari.
Sin embargo, a pesar de esa duda, que no es para nada pequeña, el debate sobre el uso de la IA se da en la cotidianidad desde su aparición y al resolver los dilemas habituales se empiezan a construir los parámetros para una ética de su uso, en la vida como en el periodismo.
Por temores apocalípticos como los expresados por Harari es necesario repasar en estos tiempos de disrupción las leyes originales de Isaac Asimov para los robots, formuladas hace 75 años (Asimov, 1977), con el fin de entender si son suficientes para los tiempos que se avecinan:
“1. Un robot no hará daño a un ser humano, ni permitirá su inacción que sufra daño. “2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de
aquellas que entren en conflicto con la primera ley.
“3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o segunda ley.”
Ya millones de periodistas producen información de baja calidad, algo que la IA puede igualar y superar fácilmente. “¿Cuál es el futuro del periodismo? Ciertamente no es el de trasegar información banal. Esa labor la puede asumir con creces un algo- ritmo” (Latorre, 2019).
La IA en el periodismo llegó para quedarse. Como en el uso de toda tecnología, dependerá de cómo la usemos lo que dará la respuesta a si terminará por remplazar el periodismo o no, preocupación que ronda en muchas redacciones y universidades.

2

Vol. 23 - Nº 2 - Julio - Diciembre de 2025

El mayor temor a la hora de usar la IA es que se pierda un vínculo clave con el pú- blico, el de la confianza, pues si la audiencia no puede saber a ciencia cierta quién la informa, si se trata de un programa algorítmico o de un periodista de carne y hueso, habrá serias posibilidades de que termine por no valorar el trabajo del informador.
Ahora bien, es cierto que una IA puede recopilar en segundos información de me- dios de cualquier parte del mundo y reescribir una noticia con todas esas fuentes, por supuesto, pero más difícil será que pueda informar con precisión de los hechos que pasan en una calle, en un barrio, en una ciudad, porque de eso hay mucho menos quién informe. Y esta es la mayor preocupación: ¿si la IA ayuda a acabar con medios regionales, locales e hiperlocales, de los que hoy se alimenta para entrenarse y para resumir la información a quien la busca, cuando esos medios desaparezcan, cuáles serán las fuentes independientes de las que beberá la IA?
Es el mismo fenómeno que advierte Mollick (2024), los expertos se seguirán nece- sitando para poder validar o incluso entrenar a la IA, pero si dejamos las posibilidades de pensar o de analizar a la tecnología, no quedarán expertos para validar lo que ellas creen, con el peligro de que lo demos por verdad sin tener quién lo certifique. Lo dice así (2024): “Para aprender a pensar de manera crítica, resolver problemas, comprender conceptos abstractos, razonas con problemas nuevos y evaluar los resultados de la IA, necesitamos expertos en la materia”.
Sin embargo, la idea de este ensayo es ver hacia dónde caminan las propuestas sobre los parámetros éticos que deben guiar a los periodistas en el uso de la inte- ligencia artificial, tomando en cuenta algunos manuales que ya intentan incorporar estas situaciones.

Periodismo IA Guía para la integración de inteligencia artificial en procesos perio-

dísticos y medios, desarrollada por el programa Redacciones 5G de Telecom Argentina

trae seis capítulos. El tercero está dedicado a Ética y transparencia de IA y comienza así: “La integración de la IA en las redacciones periodísticas no es solo una cuestión de eficiencia o innovación tecnológica, es también una cuestión profundamente éti- ca, que influye en la esencia de cómo se informa y se comprende el mundo” ( 2025).
Cuentan los investigadores que antes de elaborar esta Guía revisaron 37 guidelines publicados por igual número de medios de comunicación y organizaciones de prensa del mundo, los cuales enlistan y enlazan con hipervínculos para quien quiera ahondar en ellos.
Luego enlista una serie de elementos encontrados y afirmaciones sobre el uso de la IA, en la que la mayoría coincide en la necesidad de que la IA se use, pero como con toda fuente el periodismo debe confirmar lo allí dicho y se recuerda que

3

Vol. 23 - Nº 2 - Julio - Diciembre de 2025

el responsable de la información sigue siendo el periodista. Es así, como en la guía se encontraron principios rectores comunes que enrutan al buen uso de la IA. Se destacan estos:
• Supervisión humana y responsabilidad.
• Transparencia y claridad.
• Integridad y ética del contenido.
• Innovación responsable.
• Desarrollo de habilidades y capacitación.
• Colaboración y estándares comunes.
Entonces con base en este análisis la guía propone cinco puntos para que cada medio tenga su propia guideline, que incluye temas como la política general que el medio debe fijar para el uso de IA, cómo beneficiará el uso de la IA a la audiencia, también al medio de comunicación, explicar cómo es la relación de los periodistas del medio con la IA y cómo usar las imágenes creadas por IA. Asimismo, esta guía se enfoca en seis aspectos clave que se deben tener en cuenta en las redacciones en el uso de la IA.
El primero de ellos es el Respeto por la creación y propiedad del contenido, esto es advirtiendo que en todo caso se respetarán las normas de propiedad intelectual y los derechos de autor.
En segundo lugar Transparencia y responsabilidad, que significa que el medio siempre informará cómo, cuándo y por qué se usa la IA, así como de sus beneficios y de sus limitaciones.
El tercer aspecto clave es el de Privacidad y seguridad, en el que se propone asumir el compromiso de respetar la privacidad de los usuarios de nuestro medio de comu- nicación, así como de las fuentes, respetando la seguridad de los datos, algo cada vez más retador en este mundo tecnológico.
El cuarto punto tiene que ver con un tema que está poniendo en aprietos a las redacciones, pues ante la falta de políticas en muchas de ellas, se opta por dejar que cada quién use a su arbitrio la IA o, peor aún, sin ningún tipo de control. Por este mo- tivo, se propone Formación y habilidades en IA, con el compromiso del medio de for- mar a sus miembros en las potencialidades de esta tecnología como en sus desafíos.
En el quinto aspecto se destaca la Innovación responsable, que no es otra cosa que el compromiso de evaluar de manera cuidadosa los impactos éticos y sociales del uso de la IA en la práctica periodística.

4

Vol. 23 - Nº 2 - Julio - Diciembre de 2025

Y el sexto, es determinante, porque reitera la obligación de hacerse responsable por el uso de la IA: Verificación y control de calidad, para que se cumpla con los estándares de exactitud y fiabilidad.
Lo que nos muestra este capítulo de la guía es justamente lo desafiante que resulta crear normas para una tecnología que sigue avanzando, y al mismo tiempo nos muestra que hay muchos medios pensando en esta necesidad y que valoran la ética periodística como un imponderable atado a la calidad en este oficio.
Veamos otro ejemplo.

En Desinformación en tiempos de IA: periodismo para

construir confianza

(2024), que recoge algunas conclusiones de la Cumbre Mundial de Desinformación realizada en el 2024, se advierte entre muchas otras cosas que la IA no se mantiene estática, y que es necesario entender que esta es solo una herra- mienta dentro de una estrategia más amplia: “El panorama de la IA está en constante evolución, y los actores malintencionados se mantienen al día con estos avances. Los periodistas deben adaptarse, mantenerse actualizados y utilizar la inteligencia artificial de forma ética y constructiva” (2024).
Este resumen de la Cumbre Mundial de Desinformación 2024 muestra algunas conclusiones de los riesgos que está trayendo la IA para multiplicar la desinformación, asimismo, muestra herramientas también con IA que buscan combatir ese tipo de peligros, además con el perfeccionamiento de uso de aplicaciones. Sin embargo, nos detenemos en las Cinco recomendaciones para un abordaje ético de la IA.
La primera de ellas es Incorporar herramientas de forma consciente en los procesos. Según este documento, 85% de las redacciones ya usan IA, pero solo 33% tiene una estrategia definida para su uso. Por ese motivo, propone:
“Es necesario adoptar esas herramientas de una manera pensada, que vaya en línea con los códigos éticos a los que se pliegan las redacciones con respecto al tipo de información que publican o de procesos periodísticos que realizan. De lo contrario, pueden presentarse conflictos”.
El segundo ítem consiste en Tener cuidado con las prácticas y riesgos desinformati- vos. Explican que es poco el conocimiento que se tiene en general de cómo operan los algoritmos y qué riesgos representan si no se tiene en cuenta la falta de transparencia de cómo actúan aquellos. Por eso se propone crear procesos de rendición de cuentas a las audiencias y, en todo caso, “evaluar si el contenido producido podría facilitar la desinformación” (2024).
El tercer elemento identificado en esa Cumbre y recogido en el documento citado es el de Mantener la IA por fuera de las prácticas editoriales. “Esto implica promover

5

Vol. 23 - Nº 2 - Julio - Diciembre de 2025

la transparencia, establecer pautas claras y asegurar la intervención humana en cada etapa del ciclo de producción de noticias, manteniendo especialmente las decisiones editoriales libres de IA” (2024).
Una cuarta propuesta es clave para nuestros países porque consiste en Ser cons- cientes de las brechas entre el norte y el sur global. De nuevo se vuelve a la transpa- rencia como una prioridad en el uso de la IA y para lograrlo se dice que es necesario establecer pautas y en todo caso garantizar la intervención humana en cada etapa del proceso de la elaboración de la información, con énfasis en mantener las decisiones editoriales libres de la intervención de la IA. Huir del clickbait.
Y la quinta recomendación es fundamental: Adaptarse a los cambios. Ya antes se dijo que la IA es inacabada, y por eso es clave estar preparados para adaptarse a los retos que trae consigo cada avance o cada desafío. Esta es la razón por la que ese texto incorpora varias herramientas que se usan en redacciones del mundo para ayudar a generar más rápido la verificación de datos, ante los riesgos que trae la IA para man- tener el mundo más desinformado.
La tercera guía que se destaca en este documento se titula ¿Quién acciona la má- quina? y trae como subtítulo el siguiente: La IA, el periodismo y (el agotamiento de) los datos en la era de la enshittification de internet. El primer capítulo de este documento de periodistas de la comunidad valenciana de España va al punto: Ética y tecnología, dejando claro que es el fundamento para todo lo demás. El subtítulo es provocador: La conciencia (¿ya no?) es patrimonio de la humanidad.
Este análisis parte de que redes como las de la IA “son capaces de razonar, de en- trenarse, de conversar” (Caro, 2024) y concluye que hasta ahora eran cualidades de la conciencia humana. Plantea la preocupación por que se pueda crear una verdadera conciencia humana, algo que ahora apenas es una posibilidad y se pregunta ¿si se debe legislar para ello y para impedir lo que también temía Asimov, un mundo distópico cuando las máquinas decidan tomar voluntad para acabar con los inútiles humanos?
Con base en varios tratadistas avanza en dar opiniones en pro y en contra de tales legislaciones. O ahonda en qué sentido tiene hacerlo si estamos lejos de esa realidad. Además, incluye reflexiones de varios expertos sobre qué tan consciente es la IA o si es solo un reflejo de lo que los humanos han hecho de ella, pero de manera amplia, sin detallar en periodismo.
Sin embargo, la cuestión ética se profundiza en los asuntos periodísticos en el capí- tulo IA y periodismo, en el que se refiere a ellos en varios puntos. En la página 54, por ejemplo, habla de Protocolos para un uso de la IA responsable, mientras que desde la

6

Vol. 23 - Nº 2 - Julio - Diciembre de 2025

página 57 se habla de La transparencia del algoritmo: cuestiones sobre la ética de la

IA, los vikingos negros y el sobreajuste de los modelos.

Con base en el caso de Associated Press, que en el 2023 anunció el incremento de páginas en su libro de estilo con el fin de incorporar estándares éticos para la imple- mentación de tecnologías muestra un camino que están tomando otros medios de comunicación en el mundo, de no dejar por fuera estos protocolos para el momento en el que llegan los cambios.
También trae el caso de Wired, publicación especializada en tecnología refe- rente en este campo, que también hizo público para qué usan y para qué no los generadores de texto e imagen. Esa publicación, según este estudio, usa la IA generativa para sugerir titulares o textos para publicaciones breves en las redes sociales, para añadir nuevas ideas a su brainstorming o como herramientas de investigación o análisis, pero advierten que no es así para escribir historias y que no usan imágenes generadas por IA por respeto a los fotógrafos que así se ganan la vida. Concluye esta investigación:
“De la misma manera que cada medio tiene su propio libro de estilo, se hace urgente que exista un documento que detalle, para periodistas y lectores o espectadoras, qué prácticas están permitidas y cuáles no en materia de IA. La transparencia es un proceso circular que debemos pe- dirles tanto a los ingenieros que entrenan LLM como a los periodistas y directivos de las empresas de comunicación”. (Caro, 2024).
Al tratarse de un estudio realizado en la comunidad valenciana de España cuando se terminó esa investigación existía tal protocolo en un solo medio de esa región, Newtral, que contaba con una guía ética para el uso de inteligencia artificial.
Ese trabajo plantea otras inquietudes que ya se han tocado en escenarios diferentes a este sobre la vulnerabilidad de los derechos de autor, de la propiedad intelectual, de la falta de pago por el usufructo que hacen las grandes plataformas de las noticias de los medios para entrenar sus IA, asuntos a los que también se refiere.
Lo que nos dejan claro estas aproximaciones a lo que podrían ser guías para incor- porar en los manuales de estilo, cartas deontológicas o códigos de ética de los medios de comunicación, es que no se puede olvidar, lo recuerdan Sigman y Bilinkis (2023), que la IA por ahora son programadas por humanos y, por tanto, cargarán con tres posibilidades de cometer errores.
El primero de ellos es que la IA va a proponer cosas que van a favorecer a sus usuarios e incluso los puede perjudicar porque guía sus decisiones por quien la crea y

7

Vol. 23 - Nº 2 - Julio - Diciembre de 2025

no por quien la usa. De ahí la necesidad de incorporar en las redacciones protocolos generalizados y claros para todos del uso de la herramienta.
En segundo lugar, advierten estos autores, la IA tendrá en cuenta los propios prejui- cios humanos que le hemos transmitido y esto tiene el agravante de que estará visto como modelo de eficientismo, solapado por la supuesta efectividad. Razón de más para ajustar en los protocolos la obligación de ser transparentes en cómo se usa la IA y para qué, de modo que las audiencias sepan que en todo caso habrá un humano revisando los resultados y responsabilizándose de lo usado.
Y en tercer lugar, dicen Sigman y Bilinkis (2023), es posible que la IA en su razona- miento lógico decida que puede afectar a un ser humano si es necesario para un bien mayor, resolviendo el conflicto de interés en favor de la lógica y no de la humanidad. Por este motivo, se hace necesario tener en cuenta que la IA es una ayuda, pero no es el periodista y se hace necesario limitar su uso en las redacciones.
Para ponerlo en un tono más dramático, en palabras del propio Harari (2024), “si el auge de la IA plantea un peligro existencial para la humanidad, no se debe tanto a la malevolencia de los ordenadores como a nuestros propios defectos”. Y esto se aplica en cualquier campo, incluido el periodístico y los sesgos de los usuarios llegarán a la IA, si no se toma consciencia de tal posibilidad.
Ethan Mollick (2024) plantea que “cuanto más nos acerquemos a un mundo de cyborgs y centauros en el que la IA potencie nuestro trabajo, más necesitaremos man- tener y nutrir la experiencia humana. Necesitamos expertos humanos informados” (Mollick, 2024). Y lo humano pasa por tomar conciencia del peligro que se cierne si relajamos nuestras exigencias éticas, esas que conducen el camino de la ética como utopía de la excelencia, en palabras de Javier Darío Restrepo (2018).
Javier Argüello (2025), lo propone en los siguientes términos: “En tiempos de inte- ligencia artificial y de posthumanismos cibernéticos es cuando más debemos volver la vista hacia todas aquellas cosas que definen la ciencia de nuestra humanidad”.

Conclusiones

Si los periodistas dejamos en manos de la IA que defina la importancia de las noti- cias, algo que ya hacen los humanos con base en los resultados de las búsquedas en internet, dejando el papel del editor en una deriva peligrosa hacia el clickbait, entonces
¿quién va a ser el experto del que mañana aprenda la IA?
Las preocupaciones por la transformación que sufrirá la forma de hacer periodismo a medida que se incorpora más la inteligencia artificial en las redacciones debe propiciar

8

Vol. 23 - Nº 2 - Julio - Diciembre de 2025

los debates necesarios para entender que desde la perspectiva ética hay razones de sobra para que los temores sean de peso.
A medida que avanzan los lanzamientos de nuevas herramientas de IA o sofisticados programas que con los nuevos modelos generativos facilitan trabajos que antes tarda- ban horas o días, el mayor temor es que los periodistas se relajen tanto que olviden que la más exigente de las profesiones en materia ética es justamente el periodismo, al decir de Hearst.
Al tiempo que se anuncian los avances en IA, también aparecen manuales que pretenden demostrar que crece al mismo ritmo la preocupación ética, pero ya Javier Darío Restrepo advirtió que la ética no es asunto de manuales, sino de perspectiva vital (2018).
En medio de la incertidumbre generada por esta situación se hace necesario re- descubrir el poder que ejerce la ética como leitmotiv del buen periodismo. Van de la mano lo uno y lo otro.
Aunque hay una resistencia de algunos sectores a que se incorporen herramientas de IA generativa en el trabajo rutinario de los periodistas, de nuevo, como ya ha su- cedido en el pasado, no entender que al negarse a echar mano de esta herramienta se permite que otros lleguen a hacer lo que los periodistas no quieren y, por tanto, es abrir espacio para ser remplazados una vez más por quienes sí entienden que la tecnología.
La IA nos puede dar una mano para mejorar nuestro oficio, sobre todo en las tareas básicas o en el análisis de datos o en el chequeo de las fuentes de información, o para facilitar la conversación con las audiencias, entre muchas otras posibilidades que todos los días ensayan medios de comunicación en el mundo.
Desde el punto de vista ético son muchos los retos que igual entraña el uso de esta tecnología, desde la misma preocupación que ya llegó a tribunales para que decidan hasta dónde las grandes empresas tecnológicas que entrenan sus sistemas de IA con noticias de medios de comunicación deben pagar por ese uso, hasta poner a escribir a la herramienta en lugar de que lo hagan los periodistas sin contárselo de manera transparente a los lectores, como lo detallaron las guías aquí analizadas.
El camino del buen uso de la IA en las salas de redacción ya está extendido, a pesar de que esto apenas empieza. Por eso, se debe iniciar de una vez a aplicar el rigor ético a su uso, porque desde un comienzo se puede marcar el compás de lo que siga y aún estamos a tiempo de entrenar con ética las inteligencias artificiales.

9

Vol. 23 - Nº 2 - Julio - Diciembre de 2025

Referencias bibliográficas

Arguello, J. (2025). El día que inventamos la realidad . Editorial Debate. Asimov, I. (1977). Yo, Robot. Editorial Sudamericana. Primera edición 1950.

Caro Tarancón, S. (2024). ¿Quién acciona la máquina? Unión de Periodistas Valencianos. Harari, Y. N. (2024). Nexus. Editorial Debate.

Hearst, W. R. (1966). Requisitos para escribir noticias. En Arte y sentido del periodismo. Editorial Troquel. Latorre, J.I. (2019). Ética para máquinas. Editorial Ariel.

Mollick, E. (2024). Cointeligencia - Vivir y trabajar con la IA. Editorial Conecta.

Restrepo, J.D (2018). La constelación ética. Fundación Gabriel García Márquez para el Nuevo Periodismo Ibero-

americano.

Sigman, M. y Bilinkis, S. (2023). Artificial - La nueva inteligencia y el contorno de lo humano. Editorial Debate. Telecom Argentina (2025). Periodismo IA Guía para la integración de inteligencia artificial en procesos periodísticos

y medios, desarrollada por el programa Redacciones 5G de Telecom Argentina. (2025).

10