En medio de las conversaciones intensificadas sobre las regulaciones de IA durante el AI Summit del Reino Unido y la orden ejecutiva del presidente de los Estados Unidos, Joe Biden, el científico jefe de IA de Meta Platforms Inc. (NASDAQ:META) ha expresado su oposición, citando preocupaciones sobre posibles restricciones a la “libertad de computación”, haciendo eco de las opiniones de un investigador de NYU.
Qué sucedió
La perspectiva de Yann LeCun de Meta encontró resonancia con el investigador de IA y juegos Julian Togelius, quien también ha sido vocal sobre los posibles peligros de las regulaciones estrictas de IA.
En su última publicación de blog y posteriormente en X (anteriormente Twitter), Togelius argumentó que centrarse en regular la IA a nivel técnico en lugar de a nivel de aplicación representa una amenaza significativa para las libertades digitales.
También puedes leer: Google revoluciona la búsqueda con inteligencia artificial generativa
Él dijo: “La regulación efectiva de la IA es imposible sin una amplia vigilancia y regulación de nuestra informática personal. Pero la informática personal es fundamental para la comunicación y la expresión en la sociedad moderna”.
Togelius también sugirió que los defensores de la seguridad de la IA podrían llevarnos sin saberlo hacia un estado de vigilancia, algo a lo que él se opone vehementemente.
Además, en su publicación de blog, destacó que a menudo se compara la regulación de la IA con las armas nucleares. Sin embargo, hay varias diferencias críticas, señalando que la IA abarca una amplia variedad de métodos y capacidades técnicas que pueden ser difíciles de regular de manera efectiva.
También puedes leer: Inteligencia artificial para la taxonomía europea
Dijo que, a diferencia de las armas nucleares, la IA no requiere una producción costosa y centralizada, y sus posibles aplicaciones son vastas y variadas, desde dispositivos personales hasta sistemas distribuidos a gran escala.
LeCun estuvo de acuerdo con Togelius y destacó que “regular la investigación y desarrollo de la IA (en lugar de los productos) llevaría a niveles inaceptables de vigilancia y restricciones a la ‘libertad de computación'”.
An excellent piece by my dear NYU colleague @togelius pointing out that regulating AI R&D (as opposed to products) would lead to unacceptable levels of policing and restrictions on the "freedom to compute" https://t.co/W111R3Qqbm
— Yann LeCun (@ylecun) November 1, 2023
Por qué es importante
El mes pasado, el cofundador de Google Brain, Andrew Ng, también afirmó que las grandes empresas de tecnología están engañando al público sobre la amenaza que representa la inteligencia artificial. Destacó que la creencia de que la IA podría acabar con la humanidad es incorrecta. Cuando la gente sugiere hacer reglas estrictas para la IA, se basa en esta idea equivocada y lleva a políticas que no tienen sentido.
A principios de este año, más de 1000 líderes de la industria, incluyendo a Elon Musk y al co-fundador de Apple, Steve Wozniak, firmaron una “carta abierta” pidiendo un moratorio de seis meses en la capacitación de modelos de IA “más poderosos” que el GPT-4 de OpenAI.
Más tarde, el CEO de Google, Sundar Pichai, estuvo de acuerdo con los sentimientos del cofundador y CEO de OpenAI, Sam Altman, y de Musk, diciendo: “Sigo creyendo que la IA es demasiado importante como para no regularla y demasiado importante como para no regularla bien”.
Fuente de la imagen – Shutterstock
También puedes leer: Tim Cook: la inteligencia artificial es fundamental en Apple