type
status
date
slug
summary
tags
category
icon
password
微信公众号文章:
视频号:
为什么费曼学习法是一种终极学习方法?为了聊明白这个问题,我们先深刻理解一下什么是学习。
维基百科对于学习的定义是:获得新的理解、知识、行为、技能、价值观、态度和偏好的过程。是不是感觉:听这一句话,犹如一句话。没关系,我们一起来拆解一下这句话。
学习过程
学习的过程首先要有输入,输入可以简单理解为:问题和答案。
看到输入之后,首先大脑会去记忆,记住问题和答案
然后是理解问题和答案之间的关系、底层原理
第三个阶段 才是形成知识,到这个阶段才可以说自己学会了某个知识。
输入的时候可能有很多道题以及这些题的答案,但是在学习的过程中,会逐步变小、变好,并最终形成我们自己所有的知识,这个过程就是知识的压缩过程。
那如何证明我们学会了某个知识呢?其实就是解题,需要运用我们的知识去解答同类的新问题
但我们在解题的过程中,可能会出现错误,需要回过来补充学习以及更正知识。
解题的过程就是知识的压缩过程
用一张图来描述:
知识压缩过程,就是我们所说的学习过程,知识解压缩过程就是使用知识解决问题的过程
这跟费曼学习法有什么关系呢?
费曼学习法
我们先看一下费曼学习法的四个阶段:
- 选择并学习一个 知识
- 使用自己的语言(重述),教给完全不懂的其他人
- 如果在教的过程中卡壳,回去加深学习
- 重复2(可选择)
核心就是:通过自己的语言,向别人讲述一个知识,来检验自己是否真的弄明白了。
但是也不能说明费曼学习法是终极学习方法啊。
大家都知道GPT是很聪明的,我们来对比一下GPT的学习和解题过程
GPT有一个Transformer模型,这个模型是他智能的核心。
假设我们有一个输入数据,He is a student,GPT会对这句话做编码,可能是很多层的编码。编码之后,就代表GPT学习了这句话,最终存储下来的不是"He is a student"这句话,而是各个encoder。
那GPT在输出 "I am a student" 的时候,是怎么出来的呢?,他有各种解码器decoder,原来的encoder经过层层解码,最终就出来了我们看到的结果。
编码过程,就是知识压缩的过程,解码过程,就是知识解压缩过程,这个过程就是GPT模型的Transformer。
压缩即智能,这句话来是OpenAI的核心研发人员 Jack Rae在一次分享中提出的观点,他认为:通用人工智能基础模型的目标是实现对有效信息最大限度的无损压缩。
仅仅有Transformer形式的知识压缩和解压缩,还形成不了ChatGPT这样伟大的产品,还需要在回答问题之后,有正确/错误的反馈给到压缩的过程,近一步强化学习和修正,然后才能成为越来越智能的ChatGPT。这个过程和费曼学习法 是极其相似的。
知识压缩,不是学习的终点,通过解压缩和反馈去持续修正,才是闭环的学习过程。到这里,一定程度上已经证明 费曼学习法就是终极学习法
笔记
费曼学习法是真好,但是大脑有记忆曲线,会遗忘,不像电脑 可以永久存储和读取,怎么办?费曼学习法需要讲给不懂的人听,但是没有人听我讲,怎么办?- 可能有人会说,我有对象,可以每天讲给对象听,那我只能说 你牛X。笔记 就是用来解决这俩问题。
大脑记不住全部,我们可以用笔记来帮我们实现压缩和记录
没有人听我讲,我们可以使用自己的语言重述,写成永久笔记
这就是费曼学习法 和 笔记结合的思路,永久笔记就是我们的压缩存储,是我们知识的源泉。
费曼学习法非常适合于层级化知识的管理。
华罗庚先生有句话:先把书读厚,再把书读薄。
这句话非常总结和精炼,但是只讲了知识的压缩过程,没有讲到后面的解压缩和反馈过程。
使用费曼学习法,压缩知识之后,重述知识并转化成永久笔记,才是更完整、更终极的学习过程。
REF
- 解释 我所理解的学习过程
- 什么是学习?维基百科:学习是获得新的理解、知识、行为、技能、价值观、态度和偏好的过程。
- 学习可以粗略的分为归纳法和演绎法,这是科学推理的两个基本方法。归纳是从具体到通用的过程,是从一些实例中总结规律的过程,比如说:给你一万张猫的图片,以及一万张狗的图片,然后你基本能总结一下什么样的动物是猫,什么样的动物是狗,也能初步区分这两种动物。演绎是从通用到具体的过程,就是从基础原理推演出具体情况;比如告诉你两只腿的是鸡,四只腿的是猫,忽然来了个小动物有两只腿,按照刚刚知识,只能演绎推理出这只小家伙是一只鸡。如何验证自己学会了某个知识?解题。你说你学会了xx技术,那相关题目有没有解出来,才是证明你有没有学会的实际证明。
- 学习一个新知识:记忆 → 理解 → 规律/知识
- 记忆容量是有限的,而且记忆曲线会导致遗忘
- 理解是更深的一层学习,理解性记忆和记忆性理解,都是学习方法。所谓理解,指的是找到记忆的例子中的底层原理,记忆的不是上层的例子,而是底层原理和推导过程
- 理解不是为了记忆,理解是为了 从一个又一个的例子中,抽象总结成一个又一个的规律,我们可以叫他知识。
- 好,现在我们已经抽象成了一些知识,怎么能证明我们学会了呢?
- 解题。问题 → 知识 → 答案。这里面会有一些错误case,帮我们补充规律的完整性,这就是从错误中学习
- 使用知识 → 解答问题,但是很有可能一个知识 只能解决一类问题甚至一个问题,那人生中会遇到很多问题,该怎么办?多学知识。
- 这个过程实际上就是信息压缩的过程,记忆信息,压缩到知识的时候,就很小了,但是我们在使用知识解决问题的时候,是信息解压的过程。
- 知道 和 做到 之间有巨大的鸿沟。王阳明心学中的“知行合一”是一个非常高、且非常难达到的境界
- What:解释费曼学习法
- 解释为什么费曼学习法是一种终极学习方法
- 结合ChatGPT信息压缩,ChatGPT的智能来源
- 费曼学习法 适合层级化知识管理,最终形成永久笔记
- 小黄鸭可以一直有 但是听众不常有。在没有听众时,写作其实是非常合适的重述和输出方式。
- 学习过程,记忆 → 理解 → 知识 → 重述 → 回炉。很多人的笔记,都是信息腾挪,笔记被当成了信息的记忆工具,这是最浅层的笔记记录。按照费曼学习法,我们需要理解信息,并且抽象重述成知识,记录下来,这部分信息称为 永久笔记。
- 费曼学习法适合于层级化知识的管理过程。例子
- 华罗庚:先把书读厚,再把书读薄
相关文章