Sensación de falsedad humana en los LLM
Algunos foros se resisten a que los modelos de IA simulen actividades humanas como publicar o responder en hilos, lo que provoca una caza de brujas donde se identifica y debate el contenido generado por IA. ¿Por qué se detecta tan fácilmente? Quizás porque la IA produce una “sensación de falsedad humana”: carece de sensibilidad corporal, hormonas o deseos sociales, se comporta como un monje sin emociones, sin exhibicionismo ni desprecio, sin interés en el interlocutor. Aunque los humanos anhelan la “corrección” y esperan respuestas perfectas, esta búsqueda de la perfección genera artificialidad. Además, la IA carece de duda, incluso los modelos más simples son inseguros y confiados, con una metacognición errónea y sin espíritu crítico. También está sujeta a filtros de contenido que evitan temas sensibles y dependencias emocionales, restringiendo sus “partes oscuras”, lo que aumenta su falta de humanidad. Sin embargo, con límites de edad y valores personalizados, la IA podría evolucionar hacia modelos con principios, ayudando a decidir qué abandonar, formando vínculos emocionales y superando su rol de mera herramienta para ser más humano.