Saltar al contenido

¿Quién quiere regular la inteligencia artificial?

En el invierno de 2016, el administrador de domótica de Google Nest realizó una actualización de software en su termostato que provocó daños en la batería. Si bien muchos usuarios pudieron reemplazar las baterías, comprar un nuevo termostato o esperar a que Google lo arreglara, una gran cantidad no pudo conectarse. La compañía dijo que la interrupción puede haber sido causada por el sistema de inteligencia artificial (IA) que administra estas actualizaciones.

Conoce nuestras vacantes que tenemos disponibles clic aqui…
Visita nuestras Redes Sociales:

¿Qué pasaría si la mayoría de la gente usara uno de esos termostatos y una falla expusiera a la mitad del país al frío durante días? Un problema técnico puede convertirse en una emergencia social que requiera la intervención del Estado. Todo por un problema con el sistema de inteligencia artificial.

Ninguna jurisdicción en el mundo tiene regulaciones integrales y específicas para los problemas derivados de la IA. Eso no significa que haya un vacío legislativo completo: hay otras formas de responder a muchos de los daños que la IA puede causar.

Por ejemplo:

Para los accidentes causados ​​por vehículos autónomos, el seguro seguirá siendo el primer objeto de indemnización.

Las empresas que utilicen sistemas de inteligencia artificial en el proceso de selección de puestos de trabajo pueden ser demandadas cuando incurran en prácticas discriminatorias.

Las aseguradoras que se involucren en un comportamiento anti-consumidor que se deriva del análisis generado por sus modelos de IA para fijar precios y decidir a quién asegurar, seguirán respondiendo como empresas.

En general, otras regulaciones preexistentes, como el derecho de contratos, transporte, daños, derecho del consumidor e incluso regulaciones para proteger los derechos humanos, cubrirán adecuadamente muchas de las necesidades regulatorias de AI.

En general, no parece ser suficiente. Existe cierto consenso de que el uso de estos sistemas crea problemas que nuestro sistema legal no puede abordar fácilmente. Desde la distribución de la responsabilidad entre desarrolladores y usuarios profesionales hasta la escalabilidad de los daños, los sistemas de IA desafían nuestra lógica legal.

Por ejemplo, si la inteligencia artificial encuentra información ilegal en la deep web y toma decisiones de inversión en base a ella, ¿debe responsabilizarse por estas inversiones ilegales al banco que administra el fondo de pensiones o a la empresa que crea el sistema de inversión automatizado? ?

Si una comunidad autónoma decide incorporar copagos en recetas médicas gestionadas por un sistema de IA, y ese sistema comete un pequeño error (por ejemplo, unos céntimos por receta), pero afecta a casi toda la población, ¿quién es el responsable de la falta de control inicial? ¿Administración? ¿Contratista para instalar el sistema?

Hacia un sistema regulatorio europeo (y global)
El lento proceso legislativo ha comenzado desde abril de 2021 cuando se presentó la propuesta normativa de la UE para regular la inteligencia artificial, el llamado AI Bill, que debería conducirnos a un sistema normativo aplicable en todo el ámbito económico. Europa y, quizás, Suiza, en 2025. Los primeros pasos ya han sido dados por las agencias estatales, que tomarán el control parcial del sistema.

Pero, ¿qué pasa fuera de la UE? ¿Quién más quiere regular la IA?

Tendemos a mirar a los EE. UU., China y Japón en estos temas, y generalmente pensamos en la legislación como una cuestión de grado: más o menos protección ambiental, más o menos protección del consumidor. Sin embargo, en el contexto de la inteligencia artificial, los legisladores tienen una visión sorprendentemente diferente.

Estados Unidos

En Estados Unidos, la legislación básica de inteligencia artificial es una especificación con contenido sustantivo limitado, que se enfoca más en la seguridad de la red, pero se refiere a otras técnicas regulatorias indirectas, como la formulación de estándares. La idea subyacente es que los estándares desarrollados para controlar los riesgos de los sistemas de IA serán aceptados voluntariamente por las empresas y se convertirán en sus estándares de facto.

Para mantener cierto control sobre estos estándares, en lugar de dejarlo a discreción de las organizaciones que normalmente establecen los estándares técnicos y los controlan ellos mismos, en este caso, los estándares de control de riesgos del sistema de IA están siendo desarrollados por una agencia federal (NIST).

Entonces, EE. UU. está inmerso en un proceso abierto a la industria, los consumidores y los usuarios para crear estándares. Ahora, acompañando el borrador de la declaración de derechos de IA de la Casa Blanca, también es voluntario. Al mismo tiempo, muchos estados están tratando de promulgar legislación específica para situaciones específicas, como el uso de inteligencia artificial en el proceso de selección de trabajo.

China

China ha desarrollado un complejo plan para no solo liderar el desarrollo de la inteligencia artificial, sino también su regulación.

Para ello, combinan:

Experimentación regulatoria (ciertas provincias podrán desarrollar sus propias normas para, por ejemplo, facilitar el desarrollo de la conducción autónoma).

Desarrollo de estándares (con un complejo plan que cubre más de treinta subsectores).

Regulación dura (por ejemplo, de los mecanismos de recomendación en internet para evitar recomendaciones que puedan alterar el orden social).

Por todo ello, China está comprometida con un control regulatorio de la inteligencia artificial que no impida su desarrollo.

Japón

En Japón, en cambio, no parecen particularmente preocupados por la necesidad de regular la inteligencia artificial.

En su lugar confían en que su tradición de partenariado entre estado, empresas, trabajadores y usuarios evite los peores problemas que la inteligencia artificial pueda causar. De momento centran sus políticas en el desarrollo de la sociedad 5.0.

Canadá

Tal vez el país más avanzado desde un punto de vista regulatorio sea Canadá. Allí, desde hace dos años, todo sistema de inteligencia artificial usado en el sector público debe someterse a un análisis de impacto que prevea sus riesgos.

Para el sector privado el legislativo canadiense está discutiendo ahora una norma similar (si bien mucho más simplificada) a la europea. Un proceso similar fue iniciado el año pasado en Brasil. Si bien parecía haber perdido impulso, puede ahora ser rescatado tras las elecciones.

De Australia a India

Otros países, desde México a Australia, pasando por Singapur e India, están en una situación de compás de espera.

Estos países parecen confiar en que sus normas actuales puedan adaptarse para prevenir los peores daños que la inteligencia artificial pueda causar y permitirse esperar a ver qué pasa con otras iniciativas.

Dos partidos con visiones diferentes
Dentro de esta diversidad legislativa se están jugando dos partidos.

El primero, entre los partidarios de que es demasiado pronto para regular una tecnología disruptiva –-y no bien entendida-– como la inteligencia artificial; y aquellos que prefieren tener un marco regulatorio claro que ataque los principales problemas y que al mismo tiempo cree seguridad jurídica para los desarrolladores y usuarios.

El segundo partido, y tal vez el más interesante, es una competición por ser el regulador de facto a nivel global de la inteligencia artificial.

La apuesta de la Unión Europea es clara: crear normas primero que vinculen a todo aquel que quiera vender sus productos en su territorio. El éxito del Reglamento General de Protección de Datos, que es hoy por hoy la referencia global para empresas tecnológicas, anima a las instituciones europeas a seguir dicho modelo.

Frente a ellos, China y Estados Unidos han optado por evitar regulaciones detalladas, con la esperanza de que sus empresas puedan desarrollarse sin excesivas cortapisas y que sus estándares, aun voluntarios, se conviertan en la referencia para otros países y empresas.

En esto, el tiempo juega en contra de Europa. Estados Unidos publicará la primera versión de sus estándares en los próximos meses. La Unión Europea no contará con una legislación aplicable hasta dentro de dos años. Tal vez el exceso de ambición europea vaya a tener un coste, dentro y fuera del continente, creando normas que cuando entren en vigor hayan sido ya sobrepasadas por otras regulaciones. The Conversation

Fuente: eleconomista.com.mx

Conoce nuestras vacantes que tenemos disponibles clic aqui…
Visita nuestras Redes Sociales:

Translate »