时间、信息与人工智能(AI文献阅读)
type
status
date
slug
summary
tags
category
icon
password
(2024-06-15) 时间、信息与人工智能
Author: 祁晓亮;
Journal: 物理, 53(6): 357-367, 2024.
Journal Tags:
Local Link: 祁晓亮 - 2024 - 时间、信息与人工智能.pdf
DOI: 10.7693/wl20240601
Abstract: 近年来,人工智能(AI)大语言模型取得了突飞猛进的发展,将人工智能对人类社会的影响也拓宽到了前所未有的范围。文章将从与物理学有关的两个角度——信息和时间尺度,来谈谈作者对大语言模型带来的人工智能革命的一些不成熟的见解。文中首先回顾大语言模型的基本原理和近期发展,再讨论从信息的动力学和复杂度的角度如何看待大语言模型的意义。基于人工智能模型和人类认知系统的比较,也会探讨人工智能的下一步发展方向,以及AI智能体方面的探索和发展。
Tags:
Note Date: 2025/7/17 10:36:23
一、读懂论文需要的基础知识
1. 大语言模型(LLM)基础
- Token:语言最小单位(中文=单字,英文=词根)
- Transformer架构核心:
- 并行计算:支持千亿参数
- 全局关联:任意两词可直接交互(突破传统局部限制)
- 训练三阶段: ① 预训练:海量文本学习语言规律 ② 微调:专项优化对话能力 ③ RLHF:人类反馈矫正行为
2. 信息论关键概念
- 信息熵公式:
H = -Σ pᵢ log pᵢ - 示例: "三亚下雪"(罕见→熵高) vs "北京下雪"(常见→熵低)
- 信息动力学:信息载体演化史
3. 认知科学核心
- 系统1(直觉系统):
- 特点:快速/自动/无意识(如骑车避障)
- 类比:LLM的即时推理
- 系统2(思考系统):
- 特点:慢速/费脑/有意识(如解数学题)
- 关键:语言思考 + 记忆调用 + 步骤拆解
二、论文核心内容解读
1. LLM的革命性突破:信息复杂度临界点

- 传统AI瓶颈:
- 搜索引擎:仅排序人类创作内容
- AlphaGo:仅限单一任务
- LLM的质变:
- 输入/处理/输出复杂度 ≈ 人类水平
- 突破意义:
2. AI的核心缺陷:缺失系统2

- 人类优势:
- 灵活时间尺度:秒级反应 → 多年规划
- 能力沉淀:系统2经验 → 转化为系统1直觉
- LLM局限:
- 仅有系统1式反应(凭直觉输出)
- 学习断层:
- 案例:GPT混淆三维/四维黑洞公式(缺乏反思纠错)
3. 破局之道:AI智能体(Agents)
- 核心思想:用多个LLM构建“系统2网络”

- 思维链进阶:
- 多智能体协作:
- 斯坦福虚拟小镇:25个AI角色社交协作(图9)
- AutoGen框架:LLM对话分工(程序员+测试员)

- 三大挑战:
① 自组织工作流(AI自主规划步骤)
② 能力沉淀(高频任务→系统1化)
③ 计算成本(需千倍降本)
三、重要术语解析(文字图表版)
1. 模型核心术语
术语 | 通俗解释 | 类比说明 |
Embedding | 文字→向量的翻译器 | 中文→莫尔斯电码 |
涌现 | 量变产生质变的新能力 | 水分子聚集成波浪 |
多模态 | 融合文字/图像/声音 | 人类五感协同 |
2. 认知科学术语
术语 | 核心思想 | 实例 |
幂律分布 | 少数事件主导全局 | 20%词汇覆盖80%对话 |
重正化群 | 分层处理多尺度问题 | 地图:街道→省界→国界 |
反思学习 | 经验→长期记忆 | 日记记录重要事件 |
3. AI智能体技术
4. 信息时代划分
总结展望
- 论文核心: LLM突破信息复杂度临界点 → 需AI智能体实现“系统2”完成质变
- 未来影响:
- 科研:AI自动完成推导(如图11量子计算)
- 社会:智能体网络重构协作模式
- 警示: “AI系统2需解决自组织与成本瓶颈,否则将长期停留增强版系统1”
Prev
物理学与深度学习:2024年诺贝尔物理学奖介绍(AI文献阅读)
Next
写给物理学家的生成模型(AI文献阅读)
Loading...