Google, Meta y OpenAI anuncian medidas para identificar contenidos creados con inteligencia artificial | Tecnología

Google, Meta y OpenAI han anunciado en los últimos días varias medidas para facilitar la identificación de imágenes o archivos que hayan sido producidos o retocados con inteligencia artificial (IA). Estas iniciativas están motivadas por el temor de que la difusión indiscriminada de mensajes falsos pueda influir en los resultados electorales o tener otras consecuencias inesperadas. Las tres empresas ya habían anunciado que intentarán impedir el uso de inteligencia artificial en los procesos electorales de 2024.

Después de años de invertir miles de millones de euros en mejorar la capacidad generativa de la inteligencia artificial, las tres plataformas se han sumado a la Coalition for Content Provenance and Authenticity (C2PA), que propone un certificado estándar y reúne a gran parte de la industria digital, los medios de comunicación. venta como la BBC o Los New York Times a bancos y fabricantes de cámaras. Las empresas admiten en sus comunicados que actualmente no existe una solución única, ni eficaz en todos los casos, para identificar contenidos generados con inteligencia artificial.

Las iniciativas varían entre marcas visibles en las propias imágenes y mensajes ocultos en los metadatos del archivo o en píxeles generados artificialmente. Con su herramienta aún en versión beta, SynthID, Google también afirma haber encontrado una manera de identificar el audio.

El estándar C2PA para colocar información en metadatos de imágenes tiene numerosas debilidades técnicas, identificadas en detalle por los desarrolladores. La propia OpenAI, que utilizará C2PA en Dall-3 (su generador de imágenes), advierte en su comunicado que no debemos confiar demasiado en sus posibilidades: “Los metadatos como C2PA no son una solución milagrosa para abordar problemas de procedencia. Puede eliminarse fácilmente de forma accidental o intencionada. Una imagen sin estos metadatos puede haber sido generada o no con ChatGPT o nuestra API”, dijo la empresa que creó el chatbot que popularizó la IA generativa.

Las empresas no dan plazos claros para la implantación completa de sus medidas. Este 2024 es un año lleno de eventos electorales en países importantes y la influencia de los contenidos generados por la inteligencia artificial puede ser explosiva. La necesidad de protegerse preventivamente es vital. “Estamos desarrollando esta capacidad y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas admitidos por cada aplicación”, dice en su comunicado Nick Clegg, presidente de asuntos públicos de Meta.

Meta promete no sólo etiquetar visualmente las imágenes generadas por sus herramientas de inteligencia artificial, sino también detectar e identificar las publicadas en sus redes: Instagram, Facebook y Threads, cuando sea posible. “Podemos etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock a medida que implementan sus planes para agregar metadatos a las imágenes creadas por sus herramientas”, dice Clegg.

Google aplicará sus métodos a YouTube. Si bien estos enfoques afirman representar el estado del arte de lo que es técnicamente posible en este momento, la compañía cree que su método creado por SynthID puede sobrevivir a cambios intencionales para ocultarlo, como “agregar filtros, modificar colores y guardar con varios archivos con pérdida”. compresiones”. esquemas, que son los más utilizados para archivos JPEG”.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

By México Actualidad

Puede interesarte