Decir que la inteligencia artificial es un tema candente es quedarse corto. Ni siquiera puedes ir a la cafetería local sin escuchar a alguien hablar de ello. Y aunque el trabajo en las áreas de IA, aprendizaje automático y redes neuronales ha estado en marcha durante décadas, no fue hasta hace poco que todo llegó a un punto crítico. ¿Cuál fue el punto de inflexión? ¡ChatGPT!
Creado por OpenAI, ChatGPT ha recibido mucha atención recientemente. Y te guste o no, es un cohete que no muestra signos de desaceleración. Como explicó Dmitry Volkov, un inversor temprano en OpenAI, en una publicación reciente en redes sociales, “ChatGPT alcanzó más de 100 millones de usuarios activos mensuales en enero, solo dos meses después de su lanzamiento, convirtiéndose en la aplicación de consumo de más rápido crecimiento en la historia. Y sigue creciendo”.
En su publicación, Volkov, quien es el fundador y CEO de Social Discovery Group, agregó que el valor de la startup ahora es de “alrededor de 29.000 millones de dólares”. También afirmó que “OpenAI anticipa un crecimiento pronunciado en los próximos años: para 2024, la empresa tiene como objetivo alcanzar 1.000 millones de dólares en ingresos”.
El brazo de inversión de Volkov y Social Discovery Group, que según fuentes tiene más de 500 millones de dólares en activos bajo gestión y 50 millones de dólares invertidos en mercados públicos, se unió a Koshla Ventures como socio limitado en la inversión de OpenAI.
¡Pero la IA es realmente aterradora!
Aunque el éxito de ChatGPT de OpenAI es impresionante, el creciente diálogo en torno a la tecnología ha hecho que algunas personas se sientan incómodas. Quizás sea porque la tecnología de IA está avanzando tan rápidamente y muchos no saben lo que significará para su futuro. O tal vez es porque nos han lavado el cerebro durante décadas para creer que las IA son nuestras enemigas. En la pantalla grande, la IA siempre se retrata como robots malévolos creados para tomar el control del mundo. Desde la novela clásica “Frankenstein” hasta películas contemporáneas como “Terminator”, la IA se ha retratado como una herramienta que finalmente romperá las puertas de la civilización humana.
Además, los informes diarios de los medios de comunicación sobre la tecnología futurista de IA solo alimentan aún más este miedo. Tomemos, por ejemplo, la simulación de drones de la Fuerza Aérea de EE.UU. que terminó en la hipotética muerte del operador de la nave. Ya sea que la prueba haya sucedido o no, estos informes hacen que sea fácil creer que la idea de robots superinteligentes correteando y apuntando a los humanos es real. Sin embargo, esta percepción de la IA no es precisa en absoluto.
En realidad, la tecnología de inteligencia artificial ha sido diseñada para mejorar nuestras vidas diarias, y muchas empresas la han implementado en sus operaciones para mejorar la productividad, rentabilidad y crecimiento general. Desde la atención médica hasta el comercio minorista, la tecnología de inteligencia artificial se está adoptando en innumerables sectores. Por ejemplo, los bancos están aplicando algoritmos de inteligencia artificial en la detección de fraudes, la evaluación del riesgo crediticio y el servicio al cliente. La IA mejora sus operaciones, como el manejo de dinero, el comercio y la gestión de la riqueza, lo que resulta en procesos eficientes y rentables para las organizaciones financieras.
La IA también ha mejorado el proceso de compra del cliente a través de recomendaciones de productos personalizadas, chatbots y asistentes de voz. Para algunas personas, las IA incluso están actuando como compañeros, confidentes y asesores. Una mujer incluso descubrió más sobre su sexualidad con la ayuda de una IA. Pero con todos los beneficios que la IA puede aportar a la sociedad, de alguna manera se ha encontrado en el punto de mira.
El miedo está llevando a la regulación de la IA
Recientemente, un número creciente de reguladores y expertos se han vuelto cada vez más francos sobre los posibles peligros de la inteligencia artificial. El gobierno de los Estados Unidos ya ha puesto en marcha la regulación con cosas como el Blueprint for an AI Bill of Rights de la Casa Blanca. Pero lo que es aún más sorprendente es el apoyo que la regulación ha estado recibiendo de pesos pesados de la industria. Durante el reciente testimonio ante un panel de senadores estadounidenses, el CEO de OpenAI, Sam Altman, afirmó que se necesita regulación de la inteligencia artificial.
Aunque algunos elogian las regulaciones propuestas, otros creen que es un error. Según Nick Davidov, socio de Davidovs Venture Capital (DVC), la regulación de la inteligencia artificial hará poco para guiar a la industria o proteger a la sociedad.
“He estado desarrollando e invirtiendo en compañías de inteligencia artificial desde 2012, y amo la tecnología”, dijo Davidov. “Creo completamente en su potencial para cambiar la sociedad para mejor. Sin embargo, los tipos de regulaciones que se están promoviendo harán poco para avanzar en esto. Y en última instancia, hará más daño que bien”.
Davidov, cuyo portafolio incluye jugadores destacados como Narrative BI, Intently, Prisma y otros, explicó que la regulación finalmente perjudicará a las startups.
“El ritmo de innovación en IA está sucediendo a gran escala, solo mira lo rápido que han crecido aplicaciones como Prisma o ChatGPT, y los reguladores nunca podrán mantenerse al día con ello”, afirmó. “Además, los costes de hacer negocios que trae la regulación solo expulsarán a las startups y ayudarán a los grandes jugadores a acaparar el mercado. Además, los actores malintencionados ignorarán cualquier regulación, por lo que no tiene sentido crear obstáculos que solo afecten a los pequeños jugadores éticos”.
En lugar de regulación, Davidov propone que lo que realmente se necesita son programas para ayudar a las personas a mejorar sus habilidades y más herramientas que ayuden a abordar problemas como el sesgo, la desinformación, el acoso y los deepfakes.
¿Qué puede hacer la comunidad?
La realidad es que la IA está aquí para quedarse”, agregó Davidov. “Así que en lugar de intentar controlarla, lo cual nunca funciona, deberíamos enfocarnos en guiarla hacia su propósito previsto, que es ayudar a la humanidad a evolucionar aún más hacia la autoactualización”.
Parte de esa evolución significa que la sociedad necesitará aceptar un futuro en el que los humanos trabajen con la ayuda de asistentes digitales.
Y según Davidov, hay tres cosas que deben suceder para que el diálogo sobre la IA mejore.
- El público necesita estar mejor educado: la tecnología IA todavía está en pañales, y hay mucho que el público no sabe al respecto. Esto significa que la educación es crítica, y la comunidad IA puede desempeñar un papel esencial para ayudar a los tomadores de decisiones y al público a comprender los verdaderos beneficios y riesgos de la IA. Esto incluye trabajar con universidades para crear cursos de IA, realizar investigaciones que aborden problemas y asegurarse de que la información sobre la IA sea accesible para todos.
La comunidad IA necesita adoptar una postura proactiva en la educación del público”, destacó Davidov. “Al explicar cómo funciona la IA, sus limitaciones y los beneficios que aporta, podemos crear conciencia y conocimiento reales sobre ella. Y a partir de ahí, la sociedad podrá tomar decisiones informadas en lugar de reaccionar desde el miedo”.
- Debe haber un enfoque en la formación y el desarrollo de habilidades: la IA eliminará muchas tareas mundanas, lo que cambiará el trabajo que hacemos. Las personas tendrán más libertad para hacer el tipo de trabajo que desean, no el trabajo tedioso. Sin embargo, para que la fuerza laboral se prepare para estos cambios, se necesitarán programas de capacitación y educación para ayudar a las personas a aprender cómo utilizar la tecnología para apoyar y mejorar el trabajo que ya hacen. Esto será crítico, dado que la IA se está convirtiendo rápidamente en una mercancía.
Los empleados virtuales reemplazarán a algunos empleados humanos a gran escala, lo que significa que ciertos trabajos deberán evolucionar”, aseguró Davidov. “Las instituciones deberán capacitar a las personas y prepararlas para realizar tareas creativas de nivel superior que agreguen valor a la sociedad”.
- Promover lo bueno: Promover casos de uso positivos también es un paso crítico para salvaguardar el futuro de la IA. Con el impacto de la IA en la fuerza laboral, muchos están preocupados por la pérdida de empleos en ciertas industrias. La promoción de casos de uso positivos destaca el potencial de crecimiento de la IA, nutriendo así el desarrollo de soluciones habilitadas para la IA que pueden crear más oportunidades laborales.
Las empresas en la industria de la IA deberían promover los beneficios de la IA, que incluyen una mayor eficiencia, una mejor toma de decisiones y nuevas oportunidades para los mercados emergentes”, comentó Davidov. “Si la comunidad IA hace más para motivar y apoyar ejemplos de buenas demostraciones de la IA, puede ayudar al sector a ganar una mayor confianza pública”.
La comunidad IA tiene un papel vital en salvaguardar el futuro de la IA. Y tomar medidas proactivas proporcionando educación y capacitación, y promoviendo casos de uso positivos puede ayudar a garantizar que las personas comprendan cómo la IA puede ayudarles a alcanzar su potencial ilimitado. Como tal, es vital que el público entienda que la IA no es el enemigo. En cambio, debería ser vista como una oportunidad y una herramienta vital para investigadores, innovadores, propietarios de negocios y trabajadores para resolver los problemas más desafiantes que enfrentamos hoy en día.
También puedes leer: Perspectiva sobre la inflación en la planificación financiera