La lucha por controlar la IA – POLITICO
Dale al play para escuchar este artículo
Expresado por inteligencia artificial.
LULEÅ, Suecia — Altos funcionarios europeos y estadounidenses se reunieron en Suecia para conversaciones sobre tecnología y comercio el miércoles y trataron de encontrar una respuesta a uno de los problemas más difíciles que enfrenta el mundo: cómo vigilar la inteligencia artificial.
Durante un almuerzo de una hora de lomo de bacalao y praliné de chocolate, los funcionarios de Washington y Bruselas elaboraron un «código de conducta» voluntario diseñado para prevenir daños, incluso de la tecnología de inteligencia artificial más avanzada conocida como IA generativa, como ChatGPT de OpenAI y Google. Bardo. En cuestión de meses, la tecnología ha conquistado al público, generando esperanzas y ansiedades por el futuro de la humanidad.
Mientras que algunos están encantados con el potencial de la IA para generar códigos informáticos y resolver problemas médicos, otros temen que dejará sin trabajo a millones de personas e incluso podría amenazar la seguridad.
“La democracia debe demostrar que somos tan rápidos como la tecnología”, dijo Margrethe Vestager, comisionada digital de Europa, a los periodistas al ingresar a la cumbre del Consejo de Comercio y Tecnología (TTC) UE-EE. UU. en la pequeña ciudad industrial de Luleå, 150 kilómetros al sur de el círculo polar ártico.
El TTC se ha convertido en una reunión bianual en la que altos líderes transatlánticos como el secretario de Estado de EE. UU., Antony Blinken, y el jefe de comercio de la Unión Europea, Valdis Dombrovskis, analizan enfoques comunes en todo, desde semiconductores hasta inversiones en tecnología verde. La cuarta edición de esta semana está dominada por cómo hacer retroceder a China, donde las dos partes aún luchan por ponerse de acuerdo.
Pero cuando se trata del auge de la IA, EE. UU. y la UE están cada vez más ansiosos por avanzar juntos.
“Está llegando a un ritmo como ninguna otra tecnología”, dijo Gina Raimondo, la secretaria de comercio de EE. UU., refiriéndose a la IA generativa. “Tomará un poco de tiempo para que el Congreso de los Estados Unidos o el parlamento (de un país) o nuestras otras agencias reguladoras se pongan al día”.
Pero el plan conjunto todavía está en borrador, en el mejor de los casos. Vestager le dijo a POLITICO que el código de conducta voluntario era actualmente una nota informativa de dos páginas producida por la Comisión Europea que ella le había entregado personalmente a Raimondo el miércoles.
El objetivo, según el político danés, es presentar estándares no vinculantes sobre transparencia, auditorías de riesgo y otros detalles técnicos para las empresas que desarrollan la tecnología. Eso luego se presentaría a los líderes del G7 como una propuesta transatlántica conjunta en el otoño.
Con las reglas obligatorias de IA dentro de unos años, un código voluntario es, en el mejor de los casos, un recurso provisional hasta que se establezca una legislación vinculante.
“Estamos de acuerdo en que trabajaremos en esto, traeremos colegas a bordo para encajar en el proceso del G7”, dijo Vestager a los periodistas.
Si ese esfuerzo falla, potencialmente podría dejar una oportunidad para que China promueva su propia versión autoritaria de la tecnología en todo el mundo.
Donde Europa y EE.UU. divergen
Sin embargo, sigue existiendo una división masiva en forma de IA entre Washington y Bruselas sobre las reglas.
La UE, respaldada por un historial de redacción de gran parte del libro de reglas digitales que ahora domina el mundo occidental, está avanzando con reglas obligatorias para la inteligencia artificial que exigirían que las empresas no usen la tecnología de formas «dañinas» predefinidas. Para fines de diciembre, los funcionarios europeos esperan completar la Ley de IA de la UE, luego de duras negociaciones políticas que se prolongaron durante más de dos años.
Pero los países europeos y los miembros del Parlamento Europeo, que deben ponerse de acuerdo sobre un texto final, están en desacuerdo sobre algunos aspectos clave del texto, en particular, sobre el reconocimiento facial en lugares públicos. Mientras tanto, la industria de la tecnología se ha resistido a lo que considera una supervisión demasiado onerosa de la IA generativa.
El esfuerzo en Bruselas ha llevado a la industria de EE. UU., que está invirtiendo miles de millones de dólares en IA, a mantener la vista en la UE para obtener una legislación concreta, muy similar a lo que sucedió cuando el bloque comenzó a promulgar leyes sobre privacidad y contenido en línea.
EE. UU., por otro lado, prefiere un enfoque más no intervencionista, confiando en que la industria presente sus propias salvaguardas. Las divisiones políticas en curso dentro del Congreso hacen que sea poco probable que se apruebe una legislación específica de IA antes de las elecciones estadounidenses del próximo año.
La administración Biden ha hecho de la colaboración internacional en IA una prioridad política, especialmente porque la mayoría de las principales empresas de IA como Google, Microsoft y OpenAI tienen su sede en los EE. UU. Para Washington, ayudar a estas empresas a competir contra los rivales de China también es una prioridad de seguridad nacional. .
En las últimas semanas, la Casa Blanca abrió sus puertas a la industria y a principios de mayo recibió a los directores ejecutivos de cuatro importantes empresas de IA para una discusión privada. Ha lanzado esfuerzos para lograr que las empresas de tecnología se comprometan voluntariamente con normas sobre comportamiento responsable. Y cuando se trata del establecimiento de estándares internacionales, ha estado impulsando el marco de gestión de riesgos desarrollado en los EE. UU. por los Institutos Nacionales de Estándares y Tecnología.
Construyendo el enfoque de Occidente
El miércoles, altos funcionarios de EE. UU. y la UE intentaron eludir esas fallas con un enfoque que se basaría en los principios globales existentes propuestos por la Organización para la Cooperación y el Desarrollo Económicos. Su objetivo era ir más allá que la OCDE al señalar específicamente los peligros potenciales de la IA generativa.
Un acuerdo marco ofrecería a las empresas más certeza sobre cómo esta tecnología emergente será vigilada por los dos bloques económicos más grandes de Occidente. El objetivo es acelerar un código voluntario, aunque probablemente se basará en las normas europeas existentes para la IA y no está claro si los funcionarios y las empresas estadounidenses respaldarán tal enfoque.
“La claridad regulatoria será algo bueno”, dijo Sam Altman, director ejecutivo de OpenAI, la firma de tecnología detrás de ChatGPT, durante un evento en París la semana pasada, durante una gira europea que también incluyó Varsovia, Madrid, Munich y Londres. El jefe de tecnología se reunió virtualmente con Vestager el miércoles durante el cual discutieron el código de conducta voluntario propuesto.
Aún así, hay dudas sobre si la UE está hablando con una sola voz.
Algunos funcionarios en Bruselas esperan poder adelantar algunas de las reglas del bloque en un llamado Pacto AI. un compromiso voluntario separado al que las empresas pueden suscribirse en relación con la próxima Ley de IA de Europa que probablemente entrará en vigor en 2026.
Thierry Breton, comisionado del mercado interno de la UE, dijo que cualquier coordinación regulatoria con socios de ideas afines, como los EE. UU., se basaría en el enfoque existente de Europa. “Si otros quieren inspirarse, por supuesto, son bienvenidos”, dijo.
Politico