Las grandes compañías buscan cómo asegurar un desarrollo ético y legal de la inteligencia artificial | Tecnología

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, y el comisario Thierry Breton (en primer término), el pasado 9 de diciembre tras el acuerdo sobre le ley europea de inteligencia artificial.SIERAKOWSKI FREDERIC

Europa ha dado un paso adelante con la aprobación de la primera normativa del mundo para regular la inteligencia artificial. Esta categoriza las aplicaciones de la herramienta en función de sus riesgos y prevé duras sanciones para los infractores, que pueden llegar a los 35 millones de euros o 7% del volumen de negocio o, en el menor de los casos, 7,5 millones o 1,5% del mismo. La UE establece un periodo de transición antes de su aplicación definitiva en 2026, un tiempo que las empresas tendrán que utilizar para asegurar que sus desarrollos cumplen la ley. Gigantes como IBM, Intel o Google, favorables a la regulación, han desarrollado plataformas y sistemas para garantizar que, ya que es imparable, la inteligencia artificial se desarrolle con criterios éticos, transparentes y libre de sesgos. De esta forma, las compañías ofrecen fórmulas para cumplir con la primera ley de inteligencia artificial, la europea AI act.

La consultora tecnológica Entelgy señala tres claves que las empresas deben tener en cuenta: aquellas que gestionen datos personales, médicos, de reclutamiento o para toma de decisiones, deberán revelar cómo funciona el algoritmo y el contenido que genera en un registro europeo; a pesar de no ser obligatorio, se recomienda establecer mecanismos de supervisión humana; y los modelos de lenguaje de gran tamaño (LLM) deberán introducir sistemas de seguridad y los desarrolladores tendrán la obligación de ser transparentes sobre el material protegido por derechos de autor que utilizan.

“Debemos asegurarnos de que la tecnología que desarrollamos se cree de manera responsable y ética desde el principio. Es una gran oportunidad, pero también plantea desafíos”, advierte Christina Montgomery, vicepresidenta y directora de Privacidad y Confianza de IBM. Al contrario que otras compañías partidarias del libre desarrollo (150 directivos de empresas europeas se han posicionado en contra de la norma), IBM apuesta “una regulación inteligente que proporcione barreras de protección para la sociedad, al tiempo que promueve la innovación”. Intel, otro gigante del sector, coincide, según Greg Lavender, jefe de Tecnología de esta empresa: “La inteligencia artificial puede y debe estar al alcance de todos para que se despliegue de forma responsable”.

Ambas compañías han desarrollado plataformas propias para asegurar este desarrollo de acuerdo con normas que, poco a poco, tanto gobiernos como compañías consideran necesarias.

La solución de IBM es Watsonx.governance una plataforma que incluye el manejo ético de datos, la gestión de riesgos y el cumplimiento de las normas. “Se ha desarrollado para ayudar a las organizaciones a aplicar la IA de manera responsable, adherirse a las políticas de hoy y estar listo para la regulación de mañana”, detalla Montgomery.

El 82% de los responsables de las compañías han adoptado o implementado IA o planean hacerlo en el próximo año

Encuesta a líderes empresariales europeos

Ana Paula Assis, presidenta y directora general de IBM para Europa, Oriente Medio y África defiende la necesidad de estas herramientas a partir de una encuesta a 1.600 líderes empresariales de Alemania, Francia, Italia, España, Suecia. Según los resultados, el 82% de los responsables de las compañías han adoptado o implementado IA o planean hacerlo en el próximo año y casi la totalidad (95%) lo hacen o lo van a hacer porque es eficaz en la toma de decisiones, en la gestión y en la estrategia comercial. Según Hazem Nabih, director de tecnología para Oriente Próximo en Microsoft, “la productividad de cualquier empresa aumenta entre un 30% y un 50%”.

Pero esta herramienta de enorme potencial afronta desafíos: un marco ético necesario, la necesidad de nuevas habilidades y el aumento de costes para que su desarrollo, además de ser eficaz, sea justo (sin sesgos) y transparente (explicable y medible), así como que garantice la seguridad y la privacidad.

La propuesta de IBM es que se pueda utilizar por cualquier compañía, sea cual sea el modelo informático implantado, tanto los de código abierto como los desarrollados particularmente o por otras compañías. “Nuestra estrategia y nuestra arquitectura es abierta, híbrida y multimodelo en el sentido de que, realmente, estamos dando a los clientes la flexibilidad de implementar nuestras soluciones en los entornos que mejor les funcionen”, explica Assis.

La solución que plantea el otro gigante es Intel Trust Authority y parte de una filosofía parecida: “Un ecosistema abierto y enfocado en el desarrollador para garantizar que las oportunidades de la inteligencia artificial sean accesibles para todos”. “Son herramientas que agilizan el desarrollo de aplicaciones de IA seguras y facilitan la inversión necesaria para mantener y escalar esas soluciones con el fin de llevar la IA a todas partes”, según el jefe de tecnología de la compañía.

“Si los desarrolladores están limitados en su elección de hardware [equipos] y software [programas], la gama de casos de uso para la adopción de IA a escala global se verá restringida y probablemente limitada en el valor social que son capaces de ofrecer”, explica Lavender.

La estrategia de Intel no solo va dirigida a grandes empresas. También ha lanzado, durante el Innovation 2023, AI PC Acceleration Program, una iniciativa diseñada para acelerar el ritmo de desarrollo de la inteligencia artificial en el ámbito de los computadores personales (PC).

El programa tiene como objetivo conectar a los proveedores independientes de hardware y de software con los recursos de Intel, que incluyen herramientas de IA, coingeniería, equipos, recursos de diseño, experiencia técnica y oportunidades de comercialización. “Estos recursos ayudarán a acelerar nuevos casos de uso y conectar a la industria en general con las soluciones de IA”, defiende la compañía. Entre los socios del programa se encuentran Adobe, Audacity, BlackMagic, BufferZone, CyberLink, DeepRender, MAGIX, Rewind AI, Skylum, Topaz, VideoCom, Webex, Wondershare Filmora, XSplit y Zoom.

Tenemos un conjunto completo de controles para garantizar que, para las empresas que utilizan Vertex, sus datos sean suyos y de nadie más. No se filtran, no se comparten con nadie, ni siquiera con Google

Thomas Kurian, director de Google Cloud

Google ha desarrollado para Gemini, su último modelo de inteligencia artificial, sistemas de protección específicos para aspectos como la protección de datos personales que exigirá la nueva norma. “Tenemos un conjunto completo de controles para garantizar que, para las empresas que utilizan Vertex AI, sus datos sean suyos y de nadie más. No se filtran, no se comparten con nadie, ni siquiera con Google. Hay un largo conjunto de controles y capacidad de cumplimiento y auditoría que Vertex proporciona”, explica Thomas Kurian, director de Google Cloud en la presentación de las herramientas para desarrolladores de Gemini.

Sesgos

Uno de los mayores desafíos son los sesgos, las deficiencias incluidas en los algoritmos que pueden extenderse por todo el sistema de inteligencia artificial menospreciando la complejidad de los seres humanos. En este sentido, dos artículos de investigadores de Sony y Meta presentados en la Conferencia Internacional sobre Visión por Computador (ICCV por sus siglas en inglés), proponen formas de medir los sesgos para verificar la diversidad de los datos que no solo sirven para tomar decisiones sino también para entrenar a las máquinas.

William Thong, investigador de ética de IA en Sony, explica en MIT Technology Review sobre su propuesta: “Se utiliza para medir el sesgo en los sistemas informáticos, por ejemplo, comparando la precisión de los modelos de IA para personas de piel clara y oscura”.

La herramienta de Sony ha ampliado la escala de tonos de piel reconocibles por la computadora para no fijarse solo en si es clara u oscura, sino también las tonalidades de los distintos colores.

Para agilizar las evaluaciones de sesgos, Meta también ha desarrollado la herramienta Fairness in Computer Vision Evaluation (FACET). Según Laura Gustafson, investigadora de IA en la compañía, el sistema se basa en 32.000 imágenes humanas etiquetadas por personas en función de 13 parámetros perceptibles, como edad (joven o mayor), tono de piel, sexo, color y textura del cabello, entre otros. Meta ha puesto sus datos disponibles de forma gratuita en línea para ayudar a los investigadores.

Uso generalizado sin control

La importancia de las cautelas la pone de manifiesto un reciente informe de la firma de seguridad Kaspersky realizado entre directivos españoles y que revela que el 96% de los encuestados en España admite un uso regular de la inteligencia artificial generativa entre sus empleados sin medidas que eviten sus riesgos en casi la mitad de las entidades (45%). Según otro estudio de la misma compañía, el 25% de quienes usan IA generativa desconocen que esta puede almacenar información como la dirección IP, el tipo de navegador y la configuración del usuario, así como datos sobre las funciones más utilizadas.

“Los sistemas de inteligencia artificial generativa se encuentran en claro crecimiento y, cuanto más tiempo funcionen sin control, más difícil será proteger áreas del negocio”, advierte David Emm, analista principal de seguridad de Kaspersky.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *