在春意盎然的2023年5月,由被誉为ChatGPT之父的Sam Altman引领,全球AI领域的350余位权威人士共同签署了一封公开信。这封充满沉甸甸责任的信件,首次将人工智能对人类文明的潜在威胁提升到了与核战争、全球性流行病等重大危机同等的风险层级。这次警告的内容丰富且引人深思,主要聚焦在以下几个方面:
关于风险的性质。这封公开信以坚定的语气明确提出:“减轻人工智能带来的人类灭绝风险应成为全球优先事项。”这是AI领域首次将AI技术的失控后果与人类历史上最为毁灭性的相提并论。这一重要定性在人工智能的发展史上无疑具有里程碑的意义。
签署者的权威性不容小觑。这封公开信汇聚了全球顶尖AI机构的三大CEO,包括OpenAI的Sam Altman、DeepMind的Demis Hassabis以及Anthropic的Dario Amodei。图灵奖得主Yoshua Bengio和Geoffrey Hinton、清华AIR院长张亚勤等学界领袖也参与其中。这种跨机构、跨领域的集体发声,充分展现了警告的严肃性和广泛的社会共识。
在深入讨论中,专家们警示了技术失控的可能路径,其中核心风险点包括:AI系统可能通过语言操纵实现人类控制,这在未来或许会导致难以预料的后果;自主性武器系统在不久的将来可能出现,这将为国际安全带来严峻挑战;更为引人关注的是,超越人类智慧的AI可能突破现有的监管框架,使人类面临无法掌控的技术风险。
值得一提的是,Sam Altman在联名之前就已经多次呼吁建立类似核能监管的国际AI治理体系。此次集体发声,犹如一声震撼人心的警钟,进一步强化了人们对于AI技术发展需与安全保障并行的共识。这不仅仅是一封公开信,更是一场关乎人类未来的思考和。我们期待,在全球各方的共同努力下,人工智能能够健康、可持续地发展,为人类创造福祉,而非带来灾难。