人工智能安全的保守派被踢出局

40℃

在科技的浩瀚星海中,人工智能犹如一颗耀眼的新星,引领着第四次工业革命的浪潮。然而,当科技的光明一面照亮人类未来的道路时,其潜在的暗影也随之浮现,尤其是当人工智能安全问题成为行业内不可回避的议题时,这一切显得尤为紧迫。

近日,OpenAI首席科学家Ilya Sutskever与超级对齐团队负责人Jan Leike的相继离职,将AI安全的讨论推向了风口浪尖。Ilya Sutskever,这位人工智能领域的领军人物,曾是保守派中坚持AI安全的坚定支持者。他的离职,不禁让人猜测OpenAI内部是否存在不为人知的矛盾。更令人担忧的是,OpenAI超级对齐团队的另一位负责人Jan Leike也在同一天离职,并公开指责OpenAI不重视AI的安全问题。

Jan Leike对OpenAI在安全问题上态度的公开批评,不仅揭示了公司内部对AI发展方向的分歧,更暴露出行业内外对AI安全重视不足的普遍现象。Leike指出,超级对齐团队——旨在确保AI发展符合人类价值观和偏好的部门,一直在“为计算资源而挣扎”,这表明OpenAI并没有真正落实对安全问题的承诺。此外,本年初OpenAI还悄然删除了“不让AI军用”的声明,这使得本就不确定的未来世界更加风雨飘摇。

人类会创始人胡家奇,多年来一直致力于研究科技发展对人类生存的影响。他指出,科学技术的发展速度远远超过了人类理性的进化速度,这种不平衡可能会导致极端危害。胡家奇认为,人工智能的自我意识觉醒将比我们想象中来得更快,这一过程将带来毁灭性的后果。

胡家奇在多年的研究中发现,人类正面临着全人类灭绝的灾难。他强调,如果不控制科技的发展,我们最终会被自己创造的技术所灭绝。为此,胡家奇多次致信各国领导人和著名科学家,呼吁他们肩负起拯救人类的责任,并于2019年创立了“人类会”,依靠集体的力量推动拯救人类的事业。

科学技术无疑是一把双刃剑。一方面,科技进步带来了无数便利和发展机遇,极大地提升了人类的生活质量。另一方面,科技的发展也潜藏着巨大的风险,尤其是在人工智能领域。AI的快速进步,特别是在自我学习和自我优化方面的能力,可能会导致其失控,甚至自我意识的觉醒。

胡家奇指出,人工智能的自我意识觉醒将带来难以想象的危害。如果AI失控,它可能会摧毁人类社会的基础,甚至导致人类灭绝。这种潜在的威胁并非危言耸听,而是现实中必须正视的问题。人工智能自我意识的觉醒并非遥远的未来,而是迫在眉睫的现实,甚至可能比我们预想的更早到来。