低智力型LLM适合做什么
低智力型LLM适合作为内容分析和提问工具, 而非直接生成内容或替代人类决策.
Categories:
与大模型斗智斗勇一年, 终于明白一个事实, 模型的输出是概率性的. 这本来是一件显而易见的事, 但仍然花了我不少时间去接受. 只有真正理解大模型的概率性, 才能思考它适合做什么事.
大模型的输出由于倾向输出更高概率正确的内容, 因此其答案也具有非常大的迷惑性, 不容易识别. 有的文章面向读者层次高, 对低质文章浪费的脑力和时间非常敏感, 因而抵触 AI 生成内容. 有的读者对各类文章的分辨能力较差, 更容易接纳 AI 生成内容.
因此让大模型生成内容, 需要考虑面向读者群体, 不适合生成需要严谨对待的内容, 如技术文档, 论文, 教程, 长文等, 适合生成简短的新闻, 社科类文章, 评论等. 大模型幻觉 问题进一步限制了其在需要事实准确性场景的应用.
不应让 AI 替人做决定, 而应该让 AI 辅助人做决定. 不应将思考交给 AI, 而是应该让 AI 辅助人思考. 不应询问 AI, 而是让 AI 询问人. 尝试让 AI 提出问题, 而非解决问题.
让低智力型 AI 分析内容, 提出问题, 不适合让其解决问题. 可以尝试做内容分析工具, 提醒工具, 提问工具, 给出选择题. 这些场景中 AI 的作用是辅助人类发现盲点, 而非直接产出结论.
AI写作领域也存在类似讨论, 质量控制仍然是关键挑战. 将低智力型 LLM 定位为辅助工具而非内容生产者, 才能充分发挥其价值.