Richard Benjamins: "La nueva ley de IA puede proteger a los ciudadanos más vulnerables"

Richard Benjamins: "La nueva ley de IA puede proteger a los ciudadanos más vulnerables"

La inteligencia artificial no solo es el futuro, sino también el presente, y más aún cuando en Europa ya tenemos la primera ley que regula la IA. Por ello, no hay mejor persona a la que preguntar sobre el tema que Richard Benjamins.

Ha trabajado en Telefónica como Chief Responsible AI Officer y es fundador del área AI for Society and Environment. Además, Benjamins ha dedicado su carrera a promover el uso responsable y ético de la inteligencia artificial como cofundador del Observatorio del Impacto Social y Ético de la Inteligencia Artificial y consejero del CDP, una ONG dedicada al reporting del cambio climático.

Por último, pero no por ello menos importante, es copresidente del consejo empresarial de la UNESCO para la recomendación de IA y miembro del panel Responsible AI del MIT/Sloan.

En esta entrevista, a la cual le agradecemos de antemano que haya accedido, exploramos su opinión sobre diferentes temas de actualidad relacionados con esta tecnología de vanguardia.

Se dice en la nueva ley europea de regulación de la IA que los desarrolladores e implantadores de sistemas de IA de riesgo limitado deben garantizar que los usuarios sean conscientes de que están interactuando con un chatbot o que está ante un deepfake. Sin embargo, las estafas que usan IA siguen creciendo y los usuarios siguen cayendo en ellas, sin haber consecuencias para los ciberdelincuentes por su anonimato. ¿Cree que la IA conseguirá abrir caminos para sacarlos del anonimato más rápidamente que con la tecnología que hay ahora?

Las estafas están prohibidas sin o con inteligencia artificial. No tiene que ver con el reglamento de inteligencia artificial europeo. Desde luego, la inteligencia artificial también puede ayudar a luchar contra la ciberdelincuencia en todos sus aspectos, y también puede contribuir a romper el anonimato de los delincuentes.

Algunas empresas como Meta o Apple están encontrando muchos problemas para ofrecer ciertas soluciones de IA a los europeos. ¿Diría que Europa se está dando un tiro en el pie en este sentido, quedándose atrás en materia de innovación, o cree que la postura de las autoridades europeas es la correcta y las empresas deben adaptarse a las regulaciones, por duras que sean?

Primero quiere decir que lo que han conseguido las “big tech” como Meta y Apple tiene muchísimo mérito, y ojalá que algunas empresas europeas consigan lo mismo. Pero cuando una empresa tiene tanto éxito que empieza a ser un monopolio y generar ciertos problemas, hay que actuar si no se autorregula.

No es que estas tecnológicas están encontrando muchos problemas; no cumplen con la legislación europea. Es su decisión adaptarse a la legislación europea o no. Pero el mercado europeo es un mercado demasiado lucrativo para que no entren (más de 440 millones de clientes afluentes).

Si no entran ahora, entrarán más adelante y adaptan su operación global a los requisitos europeos (llamado “el efecto de Bruselas”). Estas empresas tienen ya mucha influencia en el mundo y no es sano para las economías ni para las sociedades.

Meta AI aún no ha llegado a Europa por lo que la empresa califica de “incertidumbre regulatoria”, y Apple Intelligence también se retrasará. Hay voces que creen que este marco jurídico que protege a los ciudadanos puede hacer que Europa se quede atrás, pero ¿podría ser una oportunidad para que las tecnológicas europeas desarrollen sus modelos propios sin verse avasalladas por los enormes recursos de las multinacionales estadounidenses?

Es verdad que es una oportunidad, pero el reto (histórico) para las tecnológicas europeas es diseñar productos y servicios iguales o mejor que sus competidoras americanas.

Medios tecnológicos como El Grupo Informático dependen en buena parte de los buscadores para mantenerse, pero la IA promete resolver las consultas sin necesidad de visitar al creador del contenido. Sin creadores humanos, corremos el riesgo de que la IA acabe siendo entrenada por contenidos generados por otra IA, que cada vez sean de peor calidad. ¿Cómo podría resolverse ese problema? ¿Deberían servicios como ChatGPT, Copilot o Gemini pagar a las fuentes de las que obtienen su contenido?

Efectivamente, los ingresos por la búsqueda y la publicidad están cambiando, y es importante que los medios más importantes reflexionen sobre su futuro modelo de negocio. Por eso, varios están llegando a acuerdos con las empresas de IA Generativa (las mismas tecnológicas …) para explorar esta vía, aunque nadie tiene claro cómo se va a evolucionar.

Hay varios juicios en marcha contra el uso de información en internet para entrenar modelos para la IA generativa y puede que tarden en aclararse. En mi opinión es importante que los medios experimenten con la IA generativa para entender esta tecnología suficientemente para explorar con nuevos modelos de ingresos. Esperar y no hacer nada no es opción.

¿Qué aspectos de la nueva ley considera más beneficiosos para los usuarios finales?

Si se refiere al nuevo reglamento europeo de IA, la ventaja para los usuarios finales es que los sistemas IA de alto riesgo (por tener un posible impacto negativo en los derechos fundamentales), tienen que cumplir con unos requisitos para mitigar estos posibles efectos. Además, genera más concienciación sobre el uso de IA en los ciudadanos y eso les beneficia para estar mejor preparados. También la prohibición de algunos usos de IA puede proteger a los ciudadanos más vulnerables.

¿Piensa que esta nueva ley, añadida a regulaciones anteriores, puede “espantar” a las empresas en vez de favorecer la competitividad entre ellas?

La ley regula los sistemas de IA de alto riesgo (requisitos ex ante) y de riesgo inaceptable (prohibidos). Se estima que solo representan un 15% de todas las aplicaciones de IA. Entonces no se regulan todas los sistemas de IA y la mayoría puede operar como siempre.

Además, las empresas que exhiben un comportamiento responsable con sistemas de IA donde no solo el beneficio económico manda, sino también otros aspectos como la sociedad, el medioambiente y la inclusividad, son más valoradas por los clientes, la sociedad y sus empleados.

¿Cree que ha faltado algo por cubrir en la nueva ley que sea importante para los europeos?

La nueva ley es un paso adelante importante para que las organizaciones hagan un uso responsable de la IA, aunque hay varios temas que no están claros aún. Además, falta mucha experiencia en su aplicación.

Pero hay varios aspectos relacionados con el impacto de la IA que no están recogidos en la ley, como el uso de IA en defensa; la creciente concentración de datos, algoritmos y poder en muy pocas empresas; el aumento de la desigualdad por esta concentración dentro y entre países; el impacto de IA en la adicción a la tecnología sobre todo entre jóvenes; la polarización de sociedades por la maximización de modelos de negocios de publicidad, etc.

Y hasta aquí llega nuestra entrevista a Richard Benjamins, quien vemos que considera la nueva regulación europea como un primer paso positivo para que la IA avance sanamente en nuestra región.

IA: cómo ha cambiado la vida de los usuarios con la inteligencia artificial

Conoce más sobre el equipo de El Grupo Informático y nuestra política editorial. Puedes seguirnos en Facebook, X, Instagram, WhatsApp, Telegram o recibirnos en tu correo para no perderte las últimas noticias de tecnología.
  • Ver Comentarios