EE UU quiere exigir a las compañías una licencia del gobierno para usar la IA

Un nuevo organismo gubernamental de EE UU obligaría a las empresas a solicitar una licencia antes de trabajar con modelos de IA como GPT-4 de OpenAI, según una propuesta bipartidista de los senadores Richard Blumenthal y Josh Hawley.
Mano robótica con las letras AI y una figura de la justicia sobre la mesa de madera con libros de derecho
El dúo bipartidista de senadores conformado por Richard Blumenthal y Josh Hawley propone que las compañías soliciten una licencia antes de comenzar a implementar la IA en sus actividades.style-photography/Getty Images

El Gobierno de Estados Unidos debería crear un nuevo organismo para regular la inteligencia artificial (IA) y restringir el trabajo con modelos de lenguaje, como GPT-4 de OpenAI, solo a las compañías que cuenten con licencia para ello. Esa es la recomendación de un dúo bipartidista de senadores, el demócrata Richard Blumenthal y el republicano Josh Hawley, quienes propusieron recientemente un marco legislativo que servirá de base para futuras leyes e influirá en otros proyectos de ley que se presenten ante el Congreso de ese país.

Según la propuesta, el desarrollo del reconocimiento facial y otras aplicaciones de “alto riesgo” de la IA también requerirían una licencia del gobierno. Para obtenerla, las empresas tendrían que probar los modelos para detectar posibles daños antes de su implementación, revelar los casos en que no funcionen correctamente después del lanzamiento y permitir auditorías por parte de un tercero independiente.

Este marco también propone que las compañías revelen públicamente los detalles de los datos de entrenamiento usados para crear un modelo de IA y que las personas perjudicadas por la tecnología tengan derecho a llevar a los tribunales a la compañía que la creó.

Licencias para el uso corporativo de la IA en EE UU

Las sugerencias de los senadores quizá cobren peso en los próximos días y semanas, a medida que se intensifiquen los debates en Washington sobre cómo regular la inteligencia artificial. Esta semana, el 12 de septiembre, Blumenthal y Hawley supervisarán una audiencia del subcomité del Senado sobre cómo responsabilizar de forma significativa a empresas y gobiernos cuando utilicen sistemas de IA que causen daños a las personas o violen sus derechos. Está previsto que testifiquen Brad Smith, presidente de Microsoft, y William Dally, científico en jefe del fabricante de chips Nvidia.

Un día después, el senador Chuck Schumer será el anfitrión de la primera de una serie de reuniones para discutir cómo reglamentar la IA, un reto al que Schumer se ha referido como “una de las tareas más difíciles que jamás hayamos emprendido”. Los directivos tecnológicos interesados en la IA, como Mark Zuckerberg, Elon Musk y los CEO de Google, Microsoft y Nvidia, constituyen aproximadamente la mitad de la lista de casi dos docenas de invitados. Otros asistentes representan a quienes probablemente se verán sometidos a los algoritmos de esta tecnología e incluyen a presidentes del Sindicato de Escritores y de la Federación Estadounidense del Trabajo-Congreso de Organizaciones Industriales (AFL-CIO), así como a investigadores que se esfuerzan por evitar que la IA pisotee los derechos humanos, entre quienes destacan Deb Raji, de la Universidad de California en Berkeley, y Rumman Chowdhury, CEO de Humane Intelligence y antigua responsable de ética de IA en Twitter.

Anna Lenhart, quien anteriormente dirigió una iniciativa de ética de IA en IBM y ahora es candidata a doctorado en la Universidad de Maryland, considera que el marco legislativo de los senadores es una buena noticia tras años de comparecencias en el Congreso de EE UU, por parte de expertos en esta tecnología, para explicar cómo y por qué debe regularse.

“Es muy reconfortante que se ocupen de esto y no esperen a una serie de foros de opinión, o a una comisión que se pasará dos años hablando con un montón de expertos para crear básicamente esta misma lista”, indica Lenhart.

Pero no está segura del modo en que un nuevo organismo de supervisión de la IA reuniría la amplia gama de conocimientos técnicos y jurídicos necesarios para monitorear una tecnología que es utilizada en muchos ámbitos, desde los automóviles de conducción autónoma hasta la atención médica y la vivienda. “Ahí es donde me atasco un poco con la idea respecto al régimen de licencias”, comenta Lenhart.

La idea de utilizar licencias para restringir quién puede desarrollar sistemas de IA de gran potencia ha ganado adeptos tanto en la industria como en el Congreso de EE UU. Sam Altman, CEO de OpenAI, sugirió la concesión de licencias a los desarrolladores de IA durante su testimonio ante el Senado en mayo, una solución reguladora que quizá ayudaría a su empresa a mantener su posición de liderazgo. Un proyecto de ley propuesto el mes pasado por las senadoras Lindsay Graham y Elizabeth Warren también exigiría a las empresas tecnológicas que obtuvieran una licencia gubernamental para la IA, pero únicamente se aplicaría a las plataformas digitales a partir de cierto tamaño.

Lenhart no es la única experta en dicha tecnología, o en política, que se muestra escéptica ante la concesión de licencias gubernamentales para el desarrollo de la IA. En mayo, la idea suscitó críticas tanto del grupo de campaña política de tendencia libertaria, Americans for Prosperity, que teme que se reprima la innovación, así como de la organización de derechos digitales sin fines de lucro, Electronic Frontier Foundation, que advierte de la apropiación del sector por empresas con dinero o conexiones influyentes. Tal vez como respuesta, el marco presentado recomienda normas estrictas sobre conflictos de intereses para el personal del organismo de supervisión de la IA.

¿Quién supervisará el uso de IA en compañías de EE UU?

El nuevo marco legal de Blumenthal y Hawley para la futura regulación de la inteligencia artificial deja algunas preguntas sin respuesta. Aún no está claro si la supervisión de la tecnología correspondería a una agencia federal de nueva creación o a un grupo dentro de una ya existente. Los senadores tampoco han especificado qué criterios se utilizarían para determinar si un cierto caso de uso se define como de alto riesgo y requiere una licencia para su desarrollo.

Michael Khoo, director del programa de desinformación sobre el cambio climático de la organización ecologista sin fines de lucro, Friends of the Earth (Amigos de la Tierra), señala que la nueva propuesta parece un buen primer paso, pero que se necesitan más detalles para evaluar adecuadamente sus ideas. Su organización es parte de una coalición de entidades ecologistas y de responsabilidad tecnológica que, mediante una carta a Schumer y una valla publicitaria para dispositivos móviles que circulará alrededor del Congreso esta semana, pide a los legisladores que impidan que los proyectos de IA que consumen mucha energía empeoren la crisis climática.

Khoo está de acuerdo con el planteamiento del marco legislativo de documentar y divulgar públicamente las repercusiones negativas, pero afirma que los legisladores no deben dejar que la industria defina lo que se considera perjudicial. También quiere que los miembros del Congreso exijan a las empresas que revelen cuánta energía se necesita para entrenar e implementar sistemas de IA, y que tengan en cuenta el riesgo de acelerar la difusión de información errónea al valorar el impacto de los modelos de dicha tecnología.

El marco legislativo hace notar que el Congreso de EE UU está considerando un enfoque más estricto para la regulación de la IA que el adoptado hasta el momento por el gobierno federal, el cual presentó un esquema voluntario de gestión de riesgos y una declaración de derechos no vinculante. La Casa Blanca llegó a un acuerdo voluntario en julio con ocho grandes empresas de inteligencia artificial, entre ellas Google, Microsoft y OpenAI, pero también prometió que se establecerían normas más firmes. En una reunión informativa sobre el pacto con las empresas de IA, Ben Buchanan, asesor especial de la Casa Blanca en la materia, afirmó que mantener a la sociedad a salvo de los daños de la inteligencia artificial requerirá tal legislación.

Artículo publicado originalmente en WIRED. Adaptado por Andrei Osornio.