El exCEO de Alphabet Inc (NASDAQ:GOOG) (NASDAQ:GOOGL), Eric Schmidt, se ha unido al coro de preocupaciones crecientes sobre el potencial “riesgo existencial” de la inteligencia artificial y la necesidad de que los gobiernos aborden su uso y regulación responsable.
¿Qué ha pasado con la IA?
Schmidt emitió una advertencia severa sobre los posibles riesgos que plantea la IA durante la CEO Council Summit de The Wall Street Journal en Londres. Dijo que la IA podría convertirse en un “riesgo existencial” y enfatizó la necesidad de que los gobiernos aborden cómo prevenir su mal uso por parte de individuos malintencionados.
“El riesgo existencial se define como muchas, muchas, muchas, muchas personas dañadas o muertas”, explicó Schmidt.
Schmidt, que fue CEO de Google desde 2001 hasta 2011, destacó la importancia de estar preparados para asegurarse de que los actores malintencionados no abusen de la tecnología de la IA.
“Hay escenarios, no hoy, pero razonablemente pronto, donde estos sistemas podrían encontrar vulnerabilidades de día cero en problemas cibernéticos o descubrir nuevos tipos de biología. A día de hoy esto es ficción, pero su razonamiento es probable que sea verdadero. Y cuando eso suceda, queremos estar preparados para saber cómo asegurarnos de que estas cosas no sean mal utilizadas por personas malvadas”.
También reconoció la necesidad de regulación de la IA como una “cuestión más amplia para la sociedad”.
Por qué es importante
Las declaraciones de Schmidt reflejan la opinión de otras figuras influyentes de la industria tecnológica, incluyendo a Elon Musk, Sam Altman, Geoffrey Hinton, también conocido como el “padrino de la IA”, y el actual CEO de Google, Sundar Pichai. Todos ellos han expresado previamente preocupaciones sobre los riesgos asociados con el desarrollo no regulado de la IA.
El renombrado magnate de negocios e inversor Warren Buffett también expresó sus dudas sobre chatGPT de OpenAI y lo comparó con la invención de la bomba atómica, diciendo que las posibilidades de la tecnología le abruman.
En marzo, Musk, el cofundador de Apple Steve Wozniak y más de 1.000 personas firmaron una “carta abierta” pidiendo una pausa en el entrenamiento de sistemas que superen el GPT-4 de OpenAI. Sin embargo, en ese momento, Schmidt no apoyó la propuesta porque le preocupaba que China obtuviera ventaja.
En 2019, Schmidt se convirtió en parte de la Comisión Nacional de Seguridad en IA de los EE.UU. y contribuyó a una evaluación integral de la tecnología de IA, incluyendo una estructura regulatoria prospectiva. La comisión publicó posteriormente sus hallazgos en 2021, planteando preocupaciones sobre la falta de preparación del país para la llegada de la IA, según CNBC.
Lee también: Bill Gates: “La IA reemplazará sitios web de compras como Amazon”