Quiet
  • HOME
  • ARCHIVE
  • CATEGORIES
  • TAGS
  • LINKS
  • ABOUT

Alex

  • HOME
  • ARCHIVE
  • CATEGORIES
  • TAGS
  • LINKS
  • ABOUT
Quiet主题
  • Reading

Layers of AI & DNN/CNN/RNN/GAN

Alex.Y
Science

2026-01-22 10:00:00

Layers of AI & DNN/CNN/RNN/GAN

Layers of AI

image-20260123100245169

最底层是 传统 AI(Classical AI),靠的是规则、逻辑和专家系统。它不“聪明”,但稳定、可控,在早期工业系统和规则引擎里非常常见。

再往上是 机器学习(Machine Learning),开始从数据中总结规律,做分类、回归、强化学习,这是“让系统自己学”的起点。

接下来是 神经网络(Neural Networks)。这一层解决的是“怎么学得更好”,包括损失函数、反向传播、激活函数、隐藏层等核心机制。很多人直接跳过这层学大模型,其实很容易只会调参、不懂原理。

再往上是 深度学习(Deep Learning),也就是我们熟悉的 CNN、RNN、Transformer。这一层让模型具备了处理图像、语言、时序数据的能力,是大模型爆发的技术基础。

然后才是现在最火的 生成式 AI(Generative AI):LLM、扩散模型、多模态模型。它们擅长“生成”——写文本、画图、做总结、对话,但本质上仍然是“一次性输出”,并不具备长期目标和自主行为。

最上面这一层,才是最近大家频繁提到的 Agentic AI(智能体)。它关注的已经不只是生成能力,而是: 有没有记忆?会不会规划?能不能调用工具?能否自动执行并持续调整? 也正是在这一层,AI 的“行为”开始发生变化,不再只是回答问题,而是像一个能做事的系统。

DNN

image-20260123101412579

原理

把图片、文字等数据,丢进多层神经元,每层神经元都和上下层相连接,通过调参数让网络自己从数据里找规律。层数越多,能找的规律越复杂。

主要应用场景

  • 看图片/听声音:识别图片,语音转文字
  • 处理文字:翻译句子,判断评论情感
  • 预测:猜股票涨跌,看病人检查结果

算法优缺点

优点:能处理复杂问题,如识别模糊图片比传统方法准。

缺点:内部黑盒,训练大模型消耗大

CNN

image-20260123101935745

原理

局部看:用卷积核扫描一小块

共享参数:同一个卷积核重复使用

缩小图:用池化层把图片缩小

RNN

image-20260123102017707

专门处理序列数据,能记住前面的信息,能根据前面信息猜测后面结果。

主要场景

  • 写东西:根据前面句子接龙
  • 翻译:跨语言翻译
  • 听语音:把语音转文字
  • 预测:猜测明天的天气、股票涨跌

优缺点:

  • 优点:能处理任何长度的序列,能记住上下文
  • 缺点:记不住太久远的信息(100个词)

GAN

image-20260123102253753

image-20260123102313835

image-20260123102341250

上一篇

Layers of AI & DNN/CNN/RNN/GAN

下一篇

杭州21度的冬天

©2026 By Alex. 主题:Quiet
Quiet主题