Content #
我们建立一个神经网络,用大量的数据训练这个网络,让网络学会自己做判断。网络内部有大量参数随着训练不断变化,就相当于人脑在学习中提高技艺。每一次训练,都是先让网络对数据做个自己的判断,然后数据再给它一个反馈。如果网络判断正确,它就会加深巩固现有的参数;如果判断错了,它就调整参数。这跟人脑的学习也很像:只有当你判断错误的时候,才说明这个知识对你是新知识,你才能学习提高。
研究者可以决定用什么难度的数据去“喂”这个网络。如果数据难度太低,网络每次都能猜对,那显然无法提高判断水平;如果数据难度太高,网络总是猜错,那它的参数就会东一下西一下变来变去,无所适从。这项研究问的问题是,每次训练中网络判断的错误率是多少,才是最优的呢?
研究者首先用了一个比较简单的数学模型做理论推导,又用了一个AI神经网络学习算法和一个模拟生物大脑的神经网络模型做模拟实验,结果得出一个精确解: 15.87%。
也就是说,当你训练一个东西的时候,你给它的内容中应该有大约85%是它熟悉的,有大约15%是令它感到意外的。
研究者把这个结论称为“85%规则”,我们干脆把15.87%叫做“最佳意外率”。这个数值就是学习的“甜蜜点”。
罗伯特•威尔逊(RobertWilson)等人发表的The Eighty Five Percent Rule for Optimal Learning(《最优学习的85%规则》)
From #
学习究竟是什么