Agencia La Oreja Que Piensa. Por Cao Yin, China Dayly
Damas y caballeros
Hoy quiero hablar de algo que está cambiando nuestro mundo: la IA.
La inteligencia artificial, como ChatGPT y Deepseek, ya está en todas partes, y el periodismo no es una excepción.
Imagínese tener un ayudante súper inteligente que puede recopilar información, escribir borradores e incluso crear videos para usted.
Suena genial, ¿verdad? Pero al igual que cualquier herramienta poderosa, la IA viene con su propio conjunto de desafíos.
Empecemos por lo bueno. La IA puede hacer cosas increíbles. En Kunshan, en la provincia oriental china de Jiangsu, la policía utilizó la IA para atrapar a los delincuentes.
Hice un informe de que la policía tenía un caso en el que alguien fue estafado por casi 1 millón de yuanes. El equipo de IA rastreó el dinero en solo 10 minutos y evitó que se transfiriera la mitad.
Incluso atraparon a los sospechosos. Ese es el poder de la IA. Puede analizar datos más rápido que cualquier humano y ayudar a resolver casos complejos que, de otro modo, podrían quedar sin resolver.
Pero aquí está la otra cara de la moneda. La IA también se está utilizando para cosas malas. Muchos casos han demostrado que la IA puede ser peligrosa si cae en las manos equivocadas. Se puede utilizar para crear identidades falsas, manipular imágenes e incluso difundir información falsa.
Y no se trata solo de la delincuencia. La IA también está causando problemas con los derechos de las personas. Hubo un caso en Pekín en el que la voz de un actor de doblaje fue copiada sin su permiso. Su voz se usaba en audiolibros y ni siquiera lo sabía.
El tribunal dictaminó que se trataba de una violación de sus derechos. Imagina a alguien usando tu voz o tu cara sin preguntar. Eso es un gran problema. No solo es poco ético; Es ilegal.
La IA también se está utilizando en el periodismo para crear contenido multimedia. Las herramientas que generan imágenes a partir de texto explicativo se están volviendo populares.
Estas herramientas pueden producir imágenes de alta calidad para atraer a un público más amplio. Sin embargo, esto también genera preocupaciones sobre la autenticidad del contenido. Con la IA, es más fácil crear deepfakes y manipular contenido audiovisual, lo que puede difundir información errónea.
La espada de doble filo de la IA en la redacción de noticias
Ahora, centrémonos en el periodismo. La IA puede ser de gran ayuda. Puede escribir borradores, sugerir titulares e incluso encontrar ángulos interesantes para las historias.
Por ejemplo, la IA puede ayudar a los periodistas a transcribir entrevistas rápidamente, ahorrando tiempo y esfuerzo. También puede adaptar el contenido a las preferencias individuales de los lectores, aumentando las vistas en línea.
También utilizo la IA en mi trabajo. A veces le pedía que me proporcionara más titulares de una historia, ya que de esta manera podía elegir uno mejor que no solo resumiera la idea principal del reportaje, sino que fuera más atractivo para los lectores.
Aunque a veces también hablaba de temas candentes con la herramienta, como el ciberacoso, los delitos juveniles e incluso la propia IA, tratando de descubrir más ángulos para mis informes y aprender más sobre las opiniones de los demás.
Cuando me beneficio más de ella, me doy cuenta de que la IA también puede estropear las cosas.
En primer lugar, podría utilizar o difundir información, datos e imágenes obsoletos, ya que algunos sistemas de IA no son lo suficientemente buenos para aprender cosas nuevas o no pueden actualizarse a tiempo.
Si un periodista solo confía en la IA para recopilar información e informar, se enfrentará fácilmente a noticias falsas.
En segundo lugar, la IA plantea importantes desafíos para los derechos de autor de las noticias.
Los sistemas de IA a menudo extraen grandes cantidades de datos de Internet para el entrenamiento, incluido el contenido de noticias con derechos de autor.
Esta práctica puede infringir los derechos de los titulares de los derechos de autor, ya que implica el uso no autorizado de su propiedad intelectual.
Las batallas legales sobre el uso de material protegido por derechos de autor por parte de la IA ponen de manifiesto la tensión entre la innovación tecnológica y la protección de los derechos de los creadores.
Si se considera que el contenido generado por IA infringe los derechos de autor, podría dar lugar a regulaciones más estrictas que podrían sofocar el desarrollo de la IA, al tiempo que garantiza una compensación justa para los creadores de contenido.
En tercer lugar, las noticias generadas por la IA tienen el potencial de crear y difundir información errónea.
Con la capacidad de producir deepfakes y otras formas de contenido sintético, la IA se puede utilizar para manipular las noticias, lo que dificulta que el público distinga entre información real y falsa.
Esto no solo socava la credibilidad de las organizaciones de noticias, sino que también representa una amenaza para los procesos democráticos al difundir narrativas falsas.
La facilidad con la que la IA puede generar contenido convincente genera preocupaciones sobre la posibilidad de que los actores maliciosos exploten estas tecnologías con fines fraudulentos o dañinos.
En conclusión, la aplicación de la IA en el periodismo conlleva numerosos riesgos potenciales, como la difusión de información falsa, el sesgo algorítmico, la manipulación de la información, los desafíos éticos y las disputas de derechos de autor de las noticias.
Estos riesgos no solo afectan la autenticidad y credibilidad de las noticias, sino que también representan amenazas para la confianza social y la seguridad pública.
Por lo tanto, la industria del periodismo debe ser más cuidadosa al utilizar la IA, garantizando la precisión y autenticidad de los contenidos y protegiendo al mismo tiempo el derecho del público a la información y la privacidad.
Estándares más altos para la edición y la presentación de informes en la era de la IA
Entonces, ¿qué hacemos? Creo que las redacciones necesitan reglas para usar la IA. No podemos permitir que la IA reemplace el juicio humano. Mi sugerencia es que debemos verificar dos veces el contenido generado por IA con mucho cuidado para asegurarnos de que sea preciso antes de publicarlo.
También tenemos que ser honestos sobre cuándo usamos la IA. Si un artículo está escrito en parte por IA, deberíamos decirlo. Y si algunos hechos, cifras e imágenes provienen de otros medios de comunicación, debemos aclarar las fuentes de información para respetar los esfuerzos de los demás, así como para mantener el orden del periodismo.
Tenemos que equilibrar el uso de la IA con la protección de los derechos de las personas, o la conclusión de la aplicación de la IA es que no podemos infringir la reputación, la privacidad y la imagen de los demás, ya que una serie de casos judiciales examinados por los tribunales de Pekín han demostrado cómo el contenido generado por la IA perjudicaba a otros.
Para abordar los problemas, China ha tomado algunas medidas.
La Administración del Ciberespacio de China ya ha emitido algunas normas para regular la aplicación de la IA al tiempo que promueve su desarrollo.
En 2023, por ejemplo, la autoridad publicó conjuntamente medidas provisionales para la gestión de servicios de IA generativa con otros seis departamentos, trazando un resultado final para quienes prestan dichos servicios con el fin de salvaguardar la seguridad nacional y los intereses públicos.
Las medidas aclaran que los contenidos generados por la IA no deben subvertir el poder del Estado, ni implicar el terrorismo, la pornografía, la discriminación étnica y la violencia, como lo es cualquier cosa que pueda perturbar el orden económico y social.
En marzo, la administración también ha trabajado con varios otros ministerios para emitir otra regulación, que requiere que el contenido generado por IA esté marcado para ayudar a los usuarios a distinguir fácilmente la información impulsada por IA del ciberespacio.
Pero no se trata solo de reglas. También necesitamos educarnos a nosotros mismos y a los demás, y necesitamos más investigación sobre la industria de la IA para buscar líneas o límites sobre lo que debemos hacer y cómo hacerlo.
A principios de marzo, China concluyó su evento político anual más importante, las Dos Sesiones, las reuniones del máximo órgano legislativo del país y del máximo órgano asesor político.
Durante ese período, varios legisladores nacionales y asesores políticos, junto con muchos expertos legales, han pedido más investigación sobre regulaciones, reglas o incluso leyes de IA.
Mientras tanto, creo que necesitamos más cooperación internacional para hacer frente a estos nuevos desafíos. Necesitamos tener más discusiones sobre cómo promover el desarrollo tecnológico y al mismo tiempo regular su aplicación.
Como periodistas en la era de la información y de Internet, tenemos que ponernos al día con el ritmo de las tecnologías y comprender más sobre la IA.
Necesitamos saber cómo funciona, cómo puede ayudarnos y cómo puede perjudicarnos. Tenemos que mantenernos informados y seguir aprendiendo. Porque si no lo hacemos, podríamos terminar difundiendo información errónea o violando los derechos de las personas.
Señoras y señores, la IA está cambiando la forma en que hacemos periodismo. Puede hacernos más eficientes, pero también conlleva riesgos. Necesitamos usar la IA con prudencia, verificar nuestros hechos con más cuidado y proteger los derechos de las personas.
Al hacer esto, podemos asegurarnos de que la IA nos ayude a hacer un mejor periodismo, no peor.
¡Gracias