Nassim Nicholas Taleb, renombrado autor de “El cisne negro”, una vez más expresó su escepticismo sobre ChatGPT de OpenAI, afirmando que la funcionalidad de este chatbot impulsado por IA viene con una condición.
Taleb critica a ChatGPT
Durante el fin de semana, Taleb recurrió a X para publicar su “veredicto” sobre ChatGPT, afirmando que el chatbot solo es utilizable si se tiene un conocimiento profundo del tema.
Continuó señalando que ChatGPT a menudo comete errores que solo pueden ser detectados por un “conocedor”, citando un ejemplo de una interpretación lingüística incorrecta.
“Entonces, si debes conocer el tema, ¿por qué usar ChatGPT?” preguntó.
También puedes leer: Aumenta el blanqueo de dinero en cripto a través de puentes
VERDICT ON ChatGPT
It is ONLY useable if you know the subject very, very well. It makes embarrassing mistakes that only a connoisseur can detect. For instance, "bar" is Aramaic for "son", not a Yiddish "pronounciation shift".So if you must know the subject, why use ChatGPT? pic.twitter.com/U36VCH9DVT
— Nassim Nicholas Taleb (@nntaleb) February 18, 2024
Continuó diciendo que utiliza el chatbot para escribir “cartas de condolencia” y que fabrica “citas y dichos”.
3) I just got a call from this cyclist friend of mine (who usually asks me to put questions to my X* friends) wants to know if ChatGPT can do powerpoint slides.
* Formerly Twitter.
— Nassim Nicholas Taleb (@nntaleb) February 18, 2024
En la sección de comentarios, la gente sugirió que Taleb considere a ChatGPT como una máquina de escribir sofisticada en lugar de una fuente definitiva de verdad. Una persona dijo que el chatbot impulsado por IA de OpenAI no es el “asistente más inteligente del planeta, pero puedes corregir y dirigir el trabajo para que se mueva más rápido”.
It is like being given a personal assistant. Not the smartest assistant on the planet but you can correct and direct work to move faster. For tasks like programming, the iterative process works very well. Better than just working by yourself and it will continue to improve.
— Kevin Rossi (@KevinRossi) February 18, 2024
You should not think GPT as a source of truth but as a smart typewriter.
Give it what (context, facts, …) you want to write and ask for edits you would do.
It’s a freaking good typewriter that can write, summarize, reorganize, you name it
But it needs *your* input. Always.
— Pierre Alex (@pa_schembri) February 18, 2024
Sin embargo, algunas personas también estuvieron de acuerdo con él diciendo que ChatGPT es “demasiado arriesgado” para ciertas asignaciones de trabajo.
Exactly. My work requires extreme accuracy — with stiff legal penalties for getting things wrong.
Far too risky to let LLMs near it
— Superbubble (@TheSuperbubble) February 18, 2024
Historial de críticas de Taleb a ChatGPT
Esta no es la primera vez que Taleb ha criticado las limitaciones de ChatGPT.
El año pasado, destacó la incapacidad del chatbot para comprender las ironías y matices de la historia. Taleb también ha expresado su frustración por la falta de ingenio de ChatGPT en las conversaciones.
El mismo año, se informó que el uso de ChatGPT por parte de un abogado para asistencia legal salió mal cuando el chatbot fabricó casos inexistentes.
Sin embargo, durante el mismo tiempo, varios informes destacaron que no solo ChatGPT, sino otros modelos de inteligencia artificial generativa como Microsoft Bing AI y Google Bard, ahora llamado Gemini, tienden a alucinar y proporcionar incluso hechos inventados con la máxima convicción.
De hecho, en abril de 2023, el CEO de Google, Sundar Pichai, admitió los “problemas de alucinación” de la inteligencia artificial, diciendo que “nadie en el campo ha resuelto aún los problemas de alucinación. Todos los modelos tienen este problema”.
Imagen a través de Shutterstock
También puedes leer: El Oráculo de Omaha comparte el valor de su modesta vivienda