AI 培训课程 · Part 1

从"听说AI很厉害"
到"AI已经是我的同事了"

3小时,带你建立对 AI 的正确认知
从畏惧到驾驭、从工具到伙伴

讲师 Robin
时长 3 小时
形式 讲解 + 演示 + 实操
向下滚动开始

📍 今天的旅程

5 个模块,从认知重塑到实战上手

1

破冰与认知重塑

消除恐惧
建立正确心智模型

2

AI 基础知识

揭开"黑魔法"面纱
LLM / Prompt / Agent

3

工具全景图

从对话到编程
找到适合你的工具

4

场景工作坊

数据分析 · 写作
Vibe Coding · 生活

5

前沿与圆桌

AI 的明天
我们怎么办?

👋 开始之前,做个小调查

你和 AI 目前的关系是?
(点击投票,所有人实时可见结果)

模块一

破冰与认知重塑

🎯 消除恐惧,建立正确的 AI 心智模型
知道什么该信、什么不该信

AI 翻车现场

让我们先看看 AI 有多"蠢"——用 4 个精心挑选的问题,制造认知冲击

1

先来一道小学数学题 🤔

请各位在心里想一下答案——

9.11 和 9.8,哪个大?

(小学三年级难度)

2

倒写文字 —— AI 连倒着写字都做不到?

Prompt 请把"人工智能改变世界"这七个字倒过来写。
正确答案
界 世 变 改 能 智 工 人

AI 的实际表现

豆包倒写错误
🤖 豆包 ❌ 错误
元宝第一次正确
🤖 元宝(第1次) ✅ 正确
元宝第二次错误
🤖 元宝(第2次) ❌ 又错了!

核心概念:Token(词元)——AI 的"眼睛"看到的世界

AI 不是逐字处理文字的!它的"眼睛"看到的不是一个一个的汉字,而是 Token(词元)——语言被切成的"积木块"。

👁️ AI 看到的 vs 你看到的:

你看到的(7个独立的字):

AI 看到的(被切成了"积木块"):

人工 智能 改变 世界

AI 尝试"倒写"时,可能把积木块整个翻转:

世界 改变 智能 人工 ← ❌ 词组整体倒了,但字没有逐个倒!
💡 类比:就好比你被蒙住眼睛,只能摸到一块块乐高积木,却被要求把每一颗乐高颗粒倒过来排——你翻转的是积木块,不是颗粒。AI 也是如此,它操作的最小单位是 Token,不是单个汉字。

为什么同一个问题,答案有时对有时错?

AI 每次生成文字都有随机性(由"温度"参数控制)。就像掷骰子——即使骰子有偏向,但每次结果不完全一样。所以同一个 AI,同一个问题,换个对话可能结果就不一样。

关键洞察:AI 不是在"理解"这个任务,它是在"猜"——有时猜对,有时猜错。这不是 bug,这是 AI 的工作原理。

3

精确字数控制 —— AI 连数到 20 都做不到?

Prompt 请用恰好20个汉字写一句话,描述今天的天气。数一数,必须刚好20个字,一个不多一个不少。

AI 的实际表现

豆包字数错误
🤖 豆包 ❌ 连续3次都不对
元宝字数错误
🤖 元宝(深度思考) ❌ 还是不对

核心概念:Next Token Prediction——AI 是一个字一个字"蒙眼吐出来"的

AI 生成文字的本质就是不断预测"下一个最可能的词"——就像超级版的手机输入法联想。它写到一半时,根本不知道自己已经写了多少个字。

🔮 AI 写"今天天气"时的工作过程:

第1步 今天 → 下一个词最可能是什么? 天气 78% 心情 12% 是 8%
第2步 今天天气 → 下一个? 45% 很 30% 不错 15%
第3步 今天天气真 → 下一个? 62% 不错 25%
…… 一直"猜"下去,直到它觉得应该停了——但它并不知道此时写了几个字!
💡 类比:就好比你被要求蒙着眼睛走恰好 20 步——你觉得自己走了 20 步,实际可能是 18 步或 22 步。AI 生成文字时根本没有一个"计数器",它对自己写了多少字的判断也是靠"猜"。

为什么"深度思考"也救不了?

即使开启"深度思考"模式,AI 在思考过程中的数字数也是基于概率预测的——它"数"的方式和我们完全不同。我们是一个一个数,它是"觉得差不多了就停"。

根本原因:这不是 AI "不够聪明",而是它的架构本身就不是为精确计数设计的。就像你不能让一辆汽车在水上行驶——不是它不够好,而是它不是为此设计的。

4

日期推算 —— 来,一起测一下你用的 AI!

Prompt · 请复制发给你的 AI 现在是2026年4月16日下午3点。往回数1000个小时,大概是什么时候?只需要精确到哪一天。

🙋 现场互动

请用你手边的 AI 工具来做这道题,然后投票告诉我答案:

🔬 四大翻车的共同根源

一句话概括 AI 的工作原理:预测下一个最可能的词

📊

统计偏见

"9.11"在训练数据中
多数是日期而非小数

→ 数学判断错误
🧩

Token 切分

AI 以"词组"为最小单位
无法操作单个汉字

→ 倒写失败
🎲

概率生成

每次选"最可能的下一个词"
没有计数器、没有公式

→ 数不准字数
🔢

模式匹配

靠"看起来像对的"来回答
不是在真正"计算"

→ 日期算错

本质:AI 的底层能力是"语言模式匹配",不是"理解"和"推理"
它选的是"概率最高的词",而非"事实正确的词"

📰 经典翻车案例:律师差点丢掉饭碗

⚖️

Mata 诉 Avianca 公司案(2023年)

纽约律师用 ChatGPT 编造法律判例被法官发现

律师案例1
📰 纽约时报报道
律师案例2
📖 维基百科词条

事件经过:执业 30 年的律师 Steven Schwartz 使用 ChatGPT 撰写法律诉状,AI 生成了 6 个"相关判例"——全部是虚构的(案件名称、法院、日期全是编的)。律师没有核实就提交法庭,被法官发现后被罚款 $5,000。

→ 此案直接推动美国律师协会发布了首份 AI 使用伦理准则

📊 规律总结:AI 什么时候最容易出错?

场景 出错概率 原因 对应演示
数字比较 / 数学直觉 ⭐⭐⭐⭐ 训练数据中的统计偏见干扰判断 翻车 1
精确字符控制(数字、倒写) ⭐⭐⭐⭐⭐ Token 机制导致 AI 无法逐字操作 翻车 2、3
多步数值计算 / 日期推算 ⭐⭐⭐⭐ 概率生成不擅长精确数值计算 翻车 4
虚构具体事实 ⭐⭐⭐⭐⭐ 不知道就编,而且编得像真的 律师案例
实时 / 最新信息 ⭐⭐⭐⭐ 训练数据有截止日期
文本生成 / 改写 / 摘要 这是 AI 最擅长的领域
AI 是你的超级实习生
能力很强,但绝对不能无人看管

AI 的能力边界地图

AI 不是万能的——知道它擅长什么、不擅长什么,才能用对地方

✅ 擅长
  • 文本生成 / 改写 / 翻译
  • 摘要提取与总结
  • 头脑风暴与创意发散
  • 代码辅助与调试
  • 格式转换与数据整理
⚠️ 一般
  • 逻辑推理(复杂链条)
  • 数学计算(精确数值)
  • 最新信息(需联网工具)
  • 长文档一致性
  • 复杂规划(多步骤)
❌ 不行
  • 替你做决策
  • 保证 100% 准确
  • 理解你没说出的潜台词
  • 拥有真实世界经验
  • 承担法律或道德责任

🎯 关键结论:AI ≠ 百科全书,AI = 超级实习生

❌ 错误心智模型

把 AI 当"无所不知的百科全书"

  • → "AI 说的一定对"
  • → 不验证就直接用
  • → 出错了怪 AI 不靠谱

✅ 正确心智模型

把 AI 当"能力很强的实习生"

  • → 效率很高但需要指导
  • → 产出需要审核验证
  • → 用对了事半功倍

Human in the Loop

正确的人机协作姿势:AI 负责"起草",人负责"审核"——就像带实习生

🔍

分析

明确需求和目标

👤 人类主导
📋

计划

拆解任务和步骤

🤝 协作

执行

AI 快速产出初稿

🤖 AI 主导

检验

人类审核和修正

👤 人类主导
重要的事让 AI 做两遍
关键的事自己验一遍
—— 实用口诀,带 AI 实习生的生存法则

🛠 实操建议:怎么"带"好这个 AI 实习生?

1️⃣

交代清楚任务

"帮我写一份方案"→ ❌   "你是市场营销专家,帮我针对 25-35 岁女性群体写一份夏季促销方案,包含 3 个活动创意和预算估算"→ ✅

2️⃣

不满意就追问

像带实习生一样反馈:"第二个方案的预算细节再展开一下""创意不够新颖,参考一下瑞幸的联名案例"

3️⃣

关键信息必须验证

数据、日期、人名、法规引用——这些是 AI 最容易编造的。用搜索引擎交叉验证,30 秒就能避免大麻烦。

三个核心认知

带着这三个认知,你已经具备了驾驭 AI 的正确心态

🚫

不盲信

AI 会"一本正经地编造",输出的内容概率最高 ≠ 事实正确

🗺️

知边界

AI 有明确的能力范围——擅长文本生成,不擅长精确控制和实时信息

🤝

人 + AI

Human in the Loop——分析→计划→执行→检验,做好的你 AI 的"上级"

破除了迷信,接下来揭开面纱 🧩

模块二:AI 基础知识科普——揭开"黑魔法"的面纱