Home/Noticias/La BBC regula el uso de la inteligencia artificial para proteger la calidad informativa

La BBC regula el uso de la inteligencia artificial para proteger la calidad informativa

Facebook
Twitter
Pinterest
El jefe de la unidad de IA en la cadena británica es el australiano James Fletcher (en la imagen), que recibe a EFE en el imponente edificio que la BBC tiene en el corazón de Londres. EFE/ Luis Campello

La BBC lleva años adelantándose a un problema que muchos medios apenas están empezando a entender: cómo usar la inteligencia artificial sin perder credibilidad. Y como era de esperarse de una institución británica, lo han convertido en un sistema casi obsesivamente estructurado.

La cadena ha desarrollado su propio manual interno para regular el uso de la IA, con una idea bastante simple pero aparentemente difícil de cumplir en 2026: que la tecnología no traicione su misión de informar, educar y entretener.

Un límite claro entre lo personal y lo profesional

Uno de los principios más curiosos, y también más reveladores, es que los empleados no pueden usar la IA en el trabajo de la misma forma en que la usan en su vida personal.

Sí, básicamente lo que haces en tu casa con ChatGPT no pasa el filtro editorial de la BBC. Y tiene sentido, porque la cadena intenta evitar errores, sesgos o contenido dudoso que pueda comprometer su reputación.

Transparencia como regla, no como discurso

El equipo encargado de la IA, liderado por James Fletcher, insiste en que la transparencia no es opcional. Es parte central del proceso.

Esto incluye no solo cómo se usa la tecnología, sino también qué límites tiene. Porque, sorpresa, la IA todavía no es tan lista como muchos creen. Según sus investigaciones, existen “serias preocupaciones” sobre la precisión y las fuentes de información que utiliza.

Qué sí se puede hacer… y qué no

No todo está prohibido, claro. La BBC permite usar IA para tareas prácticas como resumir contenido, generar gráficos o apoyar procesos internos.

Pero hay líneas rojas. Por ejemplo, no permiten imágenes generadas por IA en contenidos informativos. En otras palabras, si es noticia, no quieren nada que pueda parecer inventado.

Y considerando cómo internet mezcla realidad con ficción sin pedir permiso, no es una mala regla.

El eterno dilema de etiquetar contenido

Otro tema que han tenido que resolver es si deben etiquetar todo lo que se crea con IA.

La conclusión es bastante pragmática. Solo etiquetan lo que podría confundir al público. Porque si marcas absolutamente todo, la etiqueta deja de tener sentido.

Además, reconocen algo incómodo pero cierto: la audiencia ya está rodeada de contenido generado con IA, lo sepa o no.

Una tecnología útil, pero lejos de ser perfecta

Aunque la IA permite condensar el trabajo de múltiples periodistas en segundos, la BBC sigue apostando por supervisión humana.

Y eso dice bastante. Si una de las organizaciones más avanzadas en el uso de esta tecnología todavía no confía en dejarla sola, probablemente nadie debería hacerlo.

Al final, lo que está haciendo la BBC no es solo adoptar IA. Está intentando domesticarla. Y viendo cómo va el resto del mundo, alguien tenía que hacerlo.

El Especialito

El Especialito

Leave a Reply

Your email address will not be published. Required fields are marked *