最近,生成式人工智能(AI)正迅速在各个领域获得普及。然而,最新研究警告称,过度和不当使用AI可能会对人类的认知能力产生负面影响。卡内基梅隆大学和微软的科学家发现,积极应用生成式AI会导致批判性思维下降,这可能会对自主决策产生不利影响。
生成式AI对认知能力的影响
在一项实验中,共有319名在工作中经常使用AI的人参与,参与者被要求完成一系列任务,包括:
- 内容创作。 利用AI撰写信件及其他文本材料。
- 信息收集。 根据算法生成的回答搜索数据并编写摘要。
- 咨询服务。 生成图表并获取解决工作任务的建议。
实验结果
研究表明,积极使用AI可能会导致以下效应:
- 批判性思维的下降。 大多数参与者开始较少依赖自身分析,而倾向于评估AI提供的现成答案的质量。
- 过度信任。 约36%的参与者表示,他们曾有意识地使用批判性思维来验证AI的回答。然而,许多用户未进行充分核实,仅依赖与YouTube和维基百科等流行来源的比对。
这些数据表明,过度信任算法可能导致失去自主分析和决策的能力,这在快速变化的信息环境中尤为危险。
人工智能相较于人类的优点与缺点
一方面,AI拥有一系列无可争议的优点:
- 无限的记忆容量。 算法可以存储和处理海量数据。
- 高速的信息处理。 人类可能需要数百甚至上千分钟完成的任务,AI能够在几分之一秒内解决。
- 永不疲倦。 机器可以全天候运行,效率始终如一。
另一方面,AI也存在一些显著的局限性:
- 缺乏同理心与直觉。 算法无法理解情感细微差别和人际互动的复杂性。
- 创造力有限。 尽管能够复制成功的模式,但AI目前还无法创造出全新的概念。
- 理解上下文存在困难。 即使是现代的自然语言处理系统,也可能无法捕捉信息的深度和多义性。
因此,尽管在速度和信息处理量方面具有明显优势,但对AI的过度信任可能会导致失去人类思维所特有的重要品质。
社会风险与监管的必要性
专家警告称,AI的影响超出了个人认知效应的范围。著名人工智能专家约书亚·本吉奥曾多次强调,人工智能带来了以下风险:
- 失控风险。 人类可能面临AI系统自主运作的局面,从而增加严重错误的风险。
- 安全威胁。 与AI相关的既可能是网络攻击,也可能是生物攻击。
- 伪造内容的产生。 不实信息的传播可能会破坏公众对新闻和科学数据来源的信任。
本吉奥及其同事呼吁在AI开发和应用领域进行严格的国际监管,以最大程度地减少潜在风险,确保人类与技术的安全共存。
如何在AI时代保持批判性思维?
为避免生成式AI使用带来的负面后果,专家建议:
- 核实获取的信息。 始终将从AI获得的数据与权威来源进行核对。
- 保持平衡。 将AI作为辅助工具使用,同时不要忘记培养自身的分析和创造能力。
- 提高认知水平。 了解AI的工作原理及其局限性,以便做出更明智的决策。
结论
生成式AI的应用为我们开启了巨大的机遇,但对技术的过度信任可能会导致批判性思维的丧失以及认知能力的下降。卡内基梅隆大学和微软的研究表明,在技术支持与自主分析之间保持平衡,是保持人类智力资源的关键因素。只有通过合理且有意识地使用AI,我们才能避免潜在风险,并在迅猛的技术进步中保持人类思维的独特性。