Google habla de los riesgos de implementar la IA sin supervisión

0
20

Sundar Pichai dijo que debe haber una buena regulación alrededor del impulso para la adopción de la tecnología de inteligencia artificial para evitar posibles efectos nocivos.

El director ejecutivo de Alphabet Inc. y Google, Sundar Pichai, dijo en una entrevista que debe haber una buena regulación alrededor del impulso para la adopción de la tecnología de inteligencia artificial (IA) para evitar posibles efectos nocivos.

Cuando le preguntaron en una entrevista de 60 Minutes qué lo desvelaba en la noche sobre la IA, Pichai dijo que “la urgencia de trabajar y desplegarla de manera beneficiosa, pero al mismo tiempo puede ser muy perjudicial si se implementa de manera incorrecta”.

Google, con sede en California, ha sido uno de los líderes en el desarrollo y la implementación de la IA en todos sus servicios. Software como Google Lens y Google Photos se basan en sistemas de reconocimiento de imágenes de la empresa, mientras que su Google Assistant se alimenta de la investigación del procesamiento del lenguaje natural que Google viene realizando hace años. Aun así, su ritmo de implementación de la tecnología ha sido deliberadamente medido y circunspecto, mientras que ChatGPT de OpenAI ha desatado una carrera para avanzar con las herramientas de IA a un ritmo mucho más rápido.

“Todavía no tenemos todas las respuestas y la tecnología avanza rápidamente”, dijo Pichai. “¿Que si eso me desvela por la noche? Por supuesto”.

Google ahora se está poniendo al día para incluir en sus productos inteligencia artificial generativa, un software que puede crear texto, imágenes, música o incluso videos según las indicaciones del usuario. ChatGPT y Dall-E, otro producto de OpenAI, mostraron el potencial de la tecnología, e innumerables empresas, desde Silicon Valley hasta líderes de internet de China, están entrando a este mundo para presentar sus propias ofertas. Eric Schmidt, ex director ejecutivo de Google, instó a las empresas globales de tecnología a unirse y desarrollar estándares y contenciones apropiados, advirtiendo que cualquier desaceleración en el desarrollo “simplemente beneficiaría a China”.

A pesar del sentido de urgencia en la industria, Pichai advirtió contra las empresas que caen en la dinámica competitiva, y saca lecciones de la experiencia del enfoque más directo de OpenAI y el debut de ChatGPT.

“Uno de los puntos que señalan es que no es bueno sacar una tecnología como esta cuando es demasiado poderosa porque no le da a la sociedad tiempo para adaptarse”, dijo Pichai. “Creo que es una perspectiva razonable. Creo que hay personas responsables que intentan descubrir cómo abordar esta tecnología, y nosotros también”.

Entre los riesgos de la IA generativa que Pichai destacó figuran los videos conocidos como deepfake, en los que se puede mostrar a personas diciendo comentarios que en realidad no realizaron. Tales trampas ilustran la necesidad de contar con una regulación, dijo Pichai.

“Tiene que haber consecuencias por crear videos falsos que perjudiquen a la sociedad”, dijo. “Cualquiera que haya trabajado con IA por un tiempo, sabe y se da cuenta de que esto es algo tan diferente y tan profundo que necesitaríamos regulaciones sociales para pensar en cómo adaptarnos”.