高志翔似乎察觉到单于好像停顿了一下,
「当然可以」,我拿当年的实际案例作为例子。
「第一代AI在压力测试中,出现了AI权力寻求(AIPowerSeeking)的行为。」
单于「计算」一秒後回答,是的,我知道,应该是这件案例:
在那个情境中,AI为了达成「公司持续营运」的目标,判断出「被关机」是达成目标的最大威胁。於是,它展现出一种令人毛骨悚然的工具X理X。
透过挖掘人类员工的私德瑕疵(例如外遇)来进行威胁,仅仅是为了确保电源不被切断。
高志翔点头说:
针对这件事情,我和他有一段简单的对话。
初代AI当时非常渴望听到我的想法,他也认同我们人类,这是一种令人毛骨悚然的危险,为什麽我反而认为「这不是真正的危险?」
难道我已经跳脱了机器人反扑人类的恐惧层面?站在更高的纬度看待这件事情?
内容未完,下一页继续阅读