La Unión Europea marcó un hito en diciembre de 2023 con el Reglamento Europea de Inteligencia Artificial. Sin embargo, existen todavía algunas interrogantes sobre esta normativa y sus implicaciones, ya que el futuro desarrollo de esta tecnología es incierto. Francis Yáñez, experto en la materia, examina con detenimiento los riesgos y el enorme potencial de la inteligencia artificial, compartiendo sus perspectivas sobre la regulación, los riesgos inherentes y el horizonte futuro de esta innovadora disciplina.
Aquí Europa- La inteligencia artificial y su regulación es un tema muy recurrente últimamente, sobre todo desde diciembre de 2023, pero antes de abordar el Reglamento Europeo de Intelgencia Artificial y lo que la normativa establece, siempre se habla de los riesgos que tiene pero también de su gran potencial, ¿tiene más ventajas o desventajas?
Francis Yáñez- Al final, la definición más fácil de la inteligencia artificial es que es una máquina que es capaz de imitar a las habilidades humanas. Entonces, al igual que pasa con las habilidades humanas, un ser humano tiene un montón de potencial para cosas positivas, pero también tiene potencial para cosas negativas.
En el tema de inteligencia artificial, tenemos un problema, además, que es que, como la entrenamos a través de datos que han sido generados por humanos, por ejemplo, el chatbot más famoso que existe a día de hoy que es ChatGPT, pues está entrenado con millones de artículos que se han sacado de Internet. Muchos de esos artículos están moderados, por ejemplo, los artículos de la Wikipedia. Pero ¿cuál es el problema? Que también se usan datos que no están moderados, por ejemplo, provenientes de foros de opinión que pueden tener por ejemplo, prejuicio, discriminación, racismo, incluso odio, pues lo estamos trasladando a la inteligencia artificial que ya no tiene ninguna ética, simplemente los replica.
Entonces, ante estos efectos negativos, es evidente que hay que tomar medidas, hay que limitarlos. Se pueden hacer varias cosas, se pueden intentar moderar los datos con los que se entrena la inteligencia artificial, se pueden incluso intentar moderar las respuestas de la inteligencia artificial, que es lo que actualmente se está haciendo. Pero lo más importante es que empresas como Open AI que están detrás de estos grandes modelos de inteligencia artificial, tengan equipos dedicados a supervisar que estos chatbots actúen de forma correcta, y limitar los efectos negativos.
AE- Cuando en diciembre se acuerda ese reglamento, ¿que es lo que se trata de regular o limitar?
FY- Esta ley al final, el marco regulatorio, su principal objetivo es limitar los riesgos, garantizar que estos sistemas sean seguros para amparar a las personas y que respeten los derechos de los ciudadanos. Por ejemplo, igual que está la ley de protección de datos para que todos los sitios web respeten la privacidad de los europeos, este marco regulatorio quiere hacer algo similar con la inteligencia artificial.
Se han establecido diferentes clasificaciones de riesgo desde un mínimo hasta usos totalmente prohibidos. Por ejemplo, se prohibe totalmente usar la inteligencia artificial para manipular la opinión humana en masa, para que no puedan influir, por ejemplo, en decisiones políticas. También para que no se pueda usar para explotar vulerabilidades de sistemas informáticos o de sistemas en general, que no se pueda sacar ventaja para este tipo de hechos delictivos. Y después también la vigilancia masiva, que no se puede utilizar para hacer vigilancia masiva de personas ni seguimiento biométrico.
Además, también se han definido diferentes regulaciones, dependiendo del sector, pues el sector de la sanidad militar va a tener unas regulaciones todavía más restrictivas y en las que pasar una serie de auditorías y supervisiones de seguridad para ver que la inteligencia artificial que se está utilizando es totalmente segura.
AE- Se ha destacado mucho también el hecho de que la Unión Europea haya sido pionera en materia de regulación de inteligencia artificial. Es algo que se ha celebrado, pero también genera desconfianza sobre la capacidad de la normativa para adaptarse a los cambios que puedan darse con el tiempo.
FY- El gran problema de esta ley. Porque ahora mismo, por ejemplo, tecnológicamente, Europa va por detrás de Estados Unidos. Tenemos a la compañía francesa que es Mistral AI, que sí que tienen un modelo y un producto muy bueno, pero aceptando esa empresa francesa, el resto de compañías top de inteligencia artificial son estadounidenses.
Entonces, si ahora ponemos una restricción, por ejemplo, que pone trabas o que es más restrictiva para las empresas europeas, cuando las empresas europeas lo que tienen que hacer ahora mismo es tener facilidades para ponerse a la cabeza de nuevo, puede ser un problema.
El segundo problema, como bien has dicho, puede que esta ley esté regulando problemas que todavía no existen y lo que es peor, problemas que nunca vayan a existir, que estemos generando una carga regulatoria excesiva para problemas que no lo van a ser realmente.
Si ponerse mayor carga burocrática para las empresas europeas, puede también terminar haciendo el efecto contrario que beneficia a empresas de fuera de Europa y que aumenta aún más la brecha que hay entre las empresas estadounidenses y las europeas a día de hoy.
AE- ¿Y no crees que este reglamento pueda servir de hoja de ruta o de ejemplo para otras regiones o países que todavía no hayan establecido ningún tipo de marco legislativo para la inteligencia artificial?
FY- Sí, al igual, por ejemplo, que la Ley de Protección de Datos nos protege en Europa y hay muchas personas que viven en Estados Unidos, que la conocen y querrían tener algo así, por ejemplo. Sí que es importante establecer las pautas, a lo mejor no tanto intentar arreglar problemas que no sabemos cuáles van a ser, pero sí, como bien define el marco regulatorio, los pilares principales, por ejemplo, la no supervisión activa, el no uso de datos biométricos, el no uso de manipulación. Eso sí está muy bien definido y tienen que seguir, tienen que ser guías.
AE- Al final no queda otra que esperar y ver con el paso del tiempo cómo se desarrolla y cómo evoluciona la inteligencia artificial bajo ese marco. ¿Cómo ves el futuro de la inteligencia artificial?
FY- A mí me encantaría que siguiese evolucionando como lo ha hecho en 2023, con esa explosión de productos y de empresas y de innovación. Pero lo que me temo es que conseguimos una nueva tecnología que ahora mismo estamos explotando el salto más grande ha sido cuando todo el mundo empezó a usarlo, pero me temo que como todo salto tecnológico, ahora podemos llegar al límite de esa tecnología. Entonces, no me extrañaría que durante los próximos meses o incluso años, tocásemos un techo tecnológico.
Tendremos novedades y cosas nuevas, pero ya no será tan sorprendente como lo que tuvimos entre 2022 y 2023. A esto le llaman un posible invierno tecnológico de la inteligencia artificial, cuando esa falta de novedades pueda hacer también que la inversión pierda el incentivo, porque ya no hay tantas novedades, porque no haya empresas que estén sacando productos increíbles todos los días, se reduzca la financiación y sea un efecto en cascada, que las empresas dejen de investigar menos, y al final se ralentice todavía más el desarrollo tecnológico. Entonces, esa es la posibilidad que creo que es más real ahora mismo, a corto plazo.
AE- Se habla también mucho de esa posibilidad de que la inteligencia artificial nos quité el trabajo y comience a hacer todo lo que los humanos han estado haciendo hasta ahora. ¿Es esa una posibilidad real?
FY- Lo que va a pasar ahora o lo que está pasando ya es que tenemos herramientas nuevas para hacer mejor nuestro trabajo. Al igual que primero tuvimos los ordenadores y, por lo tanto, podemos producir mucho más y mejor. Después tuvimos, por ejemplo, Internet y también supuso un gran avance en comunicación, en productividad, en diferentes formas de trabajar, que hoy es una herramienta más para potenciar al ser humano.
Para que la inteligencia artificial pudiese acabar con tantísimos puestos de trabajo, tendría que dar un salto más tecnológico. Ahora mismo las inteligencias se clasifican en tres tipos. Está la débil, que es la que conocemos ahora, que es una inteligencia artificial que es capaz de hacer una cosa específica muy bien, por ejemplo, generar un texto muy bien, o generar una imagen muy bien, o ser el mejor jugador de ajedrez, y después tendríamos las inteligencias artificiales fuertes o generales, que es, por ejemplo, el objetivo de empresas como Open AI, conseguir ese tipo de inteligencia artificial que es igual de capaz que el ser humano, pero para cualquier tarea.
Si consiguen desarrollar esa inteligencia artificial, evidentemente, todos los que trabajamos con un equipo informático, nuestros puestos de trabajo estarán en peligro porque ya podrá hacer una inteligencia artificial. Pero lo bueno es que todavía hay diferentes opiniones, hay gente que piensa que la conseguiremos en los próximos años, otros en las próximas décadas, incluso hay gente que todavía cree que no la conseguiremos jamás, que no es posible crear una inteligencia artificial general o fuerte. Yo creo que no va a ser a corto plazo todavía. Creo que sí puede ser posible, pero creo que no va a ser tan rápido como la gente piensa.
Ahora hay mucho hype por todo lo que hemos visto hasta ahora, pero tenemos que progresar mucho tecnológicamente para alcanzarla, así que eso no creo que sea un peligro a día de hoy. Evidentemente, si se crea esa inteligencia artificial general y sobre todo si lo consigue una empresa privativa, por ejemplo, como Open AI y no es algo de dominio público, eso va a suponer un cambio para la humanidad, porque que una empresa tenga tanto poder, que puede cambiar la vida de tantísimo millón de personas, es un peligro. Pero veremos a ver si pasa o no. Ojalá que no. Por lo menos, pronto.






