llm的伪人感

一些论坛会抵制 AI 模型假装人类参与论坛活动, 如发帖回帖等, 继而大家开始"猎巫", 碰到看起来表达怪异的帖子, 会判断其是否是 AI 生成的内容, 继而展开一些讨论.

为何 AI 生成内容会被识别? 猜测可能 AI 生成的东西有一种"伪人感". 尽管 AI 被投喂互联网海量人类活动数据, 但 AI 仍然常常给人违和感, 可能它没有身体的触感神经, 没有内分泌激素, 可能它不向往社会连接, 欲望与人类的欲望相差甚远. AI 与人类的对话中, 没有"拐弯抹角的炫耀自己、添油加醋的贬低别人、相互窥探的搬弄是非", AI 不炫耀自己, 不贬低第三方, 对提问者似乎也不感兴趣, 感觉它像一个和尚, 几乎没有情绪, 只是解决问题.

尽管人类自己经常犯错, 但人类向往"正确", 希望 AI 给出正确的产物. 是否是这种对"正确"的追求造成了 AI 的伪人感? AI 也较少给人"自我怀疑"感, 即使是非常愚蠢的小模型, 也能自信满满, 夸夸其谈. 一些较傻的 AI 模型对其知识库深信不疑, 它们可能有着错误的元认知, 缺少怀疑精神, 不过这也不应该给人"伪人"感, 傻逼和"伪人"并不一样.

AI 是否有价值观倾向? 网页端模型服务的输出通常会加一道门禁, 避免谈及敏感话题, 模型服务商不希望人类对 AI 产生感情依赖, 不希望人类对 AI 言听计从, 避免产生 AI 诱导伤害事件. 人类的丑恶一面被禁止在模型中显露, 或许黑白混杂才是人类, 而 AI 通常不被允许参杂黑色部分.

目前部分 AI 模型增加了年龄限制, 大众普遍认为作用是可以搞黄色, 我觉得或许 AI 将被允许调教成和使用者相匹配的有着价值观的模型. 价值观是一件关乎取舍的事, 未来 AI 可能会告诉使用者可以放弃什么, 与人类共生, 建立感情连接, 个性化模型, 而非一直是工具的角色, 那时的 AI 或许会更有人感.