在开篇这里,我们不妨思考这样一个问题。我们该如何评估一个东西(比如大语言模型)是否具有“意识”?张江老师提出,有三个角度判断一个东西是否有意识:
1.从语言行为角度:像耳熟能详的图灵测试,就是从机器的行为来判断它是否具有智能。即在测试过程中,机器的行为是否已经与人无异。行为可以认为是某种宏观层面的判断方式。
2.从实现意识硬件的物理现象的角度:我们也可以从实现意识的硬件——比如“脑”或“计算机”的物理现象层面来判断一个东西是否具有意识。比如现在有许多科学家已经发现了一些人脑中出现“意识”的特征,这些特征可以定位到神经元活动等。还有如临界相变等都可能与意识的物理机制有关。
自我反思
Self-Refine:IterativeRefinementwithSelf-Feedback
Reflexion:anautonomousagentwithdynamicmemoryandself-reflection
自我改进
LargeLanguageModelsCanSelf-Improve
自我解释
Self-explainingAIasanalternativetointerpretableAI
论文链接:
人类意识研究
在《Whatisconsciousness,andcouldmachineshaveit》这篇论文研究中,作者提到,意识至少有3重含义:
1.C0,无意识加工和意识状态。即,什么工作在什么条件下,必须有意识参与?作者做了很多实验,来验证无意识加工的存在。这个领域的研究相对成熟。
论文题目:
GorillasinOurMidst:SustainedInattentionalBlindnessforDynamicEvents
意识是“自由”的吗?
物理世界中可能看到“意识”吗?
于是,这本书的作者,认为意识信号有4个特征:
1.超过阈值时,信号会大大增强,然后“雪崩”扩散。
3.后期会出现高频振荡,和gamma波的发生(人类清醒时的波形)有关系。
意识理论与建模
1.全局工作空间,GlobalWorkspaceTheory
2.信息整合论,IntegratedInformationTheory
Beyondintegratedinformation:Ataxonomyofinformationdynamicsphenomena
Theoriesofconsciousness
意识的实现
世界模型
WorldModels
DreamtoControl:LearningBehaviorsbyLatentImagination
MasteringDiverseDomainsthroughWorldModels
包括自我的世界模型
SeparatingtheWorldandEgoModelsforSelf-Driving
那么回顾刚才提到的这些意识理论和意识实现框架,我们不妨思考:一个真正理想化的意识建模是什么样呢?我们可以得出如下4个设想:
1.意识建模至少要有系统1和系统2——这点和全局工作空间理论一样。
2.更重要的是这个系统2,要有因果力。为了实现这点,系统2很可能是全连接的网络。
3.同时,这个意识建模必须要像worldmodel一样要能想象和执行规划。
自指与意识机器
1.有一个执行环境:U
第二递归定理
自我反省机器
异步自省模型
AsynchronousIntrospectionTheory:TheUnderpinningsofPhenomenalConsciousnessinTemporalIllusion
自由意志
如何让ChatGPT具有意识?
要回答这个问题,首先就要回答:如果不做任何改进,现有的ChatGPT等大语言模型具有意识吗?我们可以从3个层面来评估这个问题。
2.微观层面——物理层面。比如,大语言模型在运行的过程中,其神经网络内部是否有大尺度的全联通网络激活——尤其在执行复杂任务上,是否存在系统2的工作痕迹。这一点,似乎是可以被验证的。
那么,如果ChatGPT等大语言模型还没有意识。如何让它具有意识?至少从本文中提到的许多理论和思考可以看到,未来值得做的至少有两个方向:
1.让GPT等LLM和全局工作空间(意识图灵机)发生耦合。通过系统2,让它做更复杂的任务。