Layers of AI & DNN/CNN/RNN/GAN
Layers of AI

最底层是 传统 AI(Classical AI),靠的是规则、逻辑和专家系统。它不“聪明”,但稳定、可控,在早期工业系统和规则引擎里非常常见。
再往上是 机器学习(Machine Learning),开始从数据中总结规律,做分类、回归、强化学习,这是“让系统自己学”的起点。
接下来是 神经网络(Neural Networks)。这一层解决的是“怎么学得更好”,包括损失函数、反向传播、激活函数、隐藏层等核心机制。很多人直接跳过这层学大模型,其实很容易只会调参、不懂原理。
再往上是 深度学习(Deep Learning),也就是我们熟悉的 CNN、RNN、Transformer。这一层让模型具备了处理图像、语言、时序数据的能力,是大模型爆发的技术基础。
然后才是现在最火的 生成式 AI(Generative AI):LLM、扩散模型、多模态模型。它们擅长“生成”——写文本、画图、做总结、对话,但本质上仍然是“一次性输出”,并不具备长期目标和自主行为。
最上面这一层,才是最近大家频繁提到的 Agentic AI(智能体)。它关注的已经不只是生成能力,而是: 有没有记忆?会不会规划?能不能调用工具?能否自动执行并持续调整? 也正是在这一层,AI 的“行为”开始发生变化,不再只是回答问题,而是像一个能做事的系统。
DNN

原理
把图片、文字等数据,丢进多层神经元,每层神经元都和上下层相连接,通过调参数让网络自己从数据里找规律。层数越多,能找的规律越复杂。
主要应用场景
- 看图片/听声音:识别图片,语音转文字
- 处理文字:翻译句子,判断评论情感
- 预测:猜股票涨跌,看病人检查结果
算法优缺点
优点:能处理复杂问题,如识别模糊图片比传统方法准。
缺点:内部黑盒,训练大模型消耗大
CNN

原理
局部看:用卷积核扫描一小块
共享参数:同一个卷积核重复使用
缩小图:用池化层把图片缩小
RNN

专门处理序列数据,能记住前面的信息,能根据前面信息猜测后面结果。
主要场景
- 写东西:根据前面句子接龙
- 翻译:跨语言翻译
- 听语音:把语音转文字
- 预测:猜测明天的天气、股票涨跌
优缺点:
- 优点:能处理任何长度的序列,能记住上下文
- 缺点:记不住太久远的信息(100个词)
GAN


