OpenAI加强内部监管 董事有否决管理层决定权利

OpenAI加强内部监管 董事有否决管理层决定权利

联合早报
ChatGPT开发者OpenAI星期一(12月18日)发表一系列指引,阐明公司计划如何应对它最强大人工智能(AI)系统可能引起的极端风险。(路透社)

人工智能公司OpenAI赋予公司董事权利,否决公司领导的决策,以进一步加强开发尖端科技的安全保障。


ChatGPT开发者OpenAI星期一(12月18日)发表一系列指引,阐明公司计划如何应对它最强大人工智能(AI)系统可能引起的极端风险。


在指引下,OpenAI只会在确定最新技术的安全性之后才会开始运用。公司也将成立一个顾问团队以审核安全报告,再转交公司高层和董事局。虽然公司领导负责做决策,董事局可推翻决定。



公司在总裁奥尔特曼短暂被罢免期间,市场焦点放在这家全球顶尖科技公司的董事局和管理层之间的权利平衡上。


OpenAI今年10月宣布成立“备灾小组”,并会持续评估它的AI系统在网安、化学、核子和生物威胁等四大范畴的表现,同时减低科技可能带来的任何危害。


具体来说,公司检查的是定义为:能造成上亿元经济损失,或导致许多个人受伤害或死亡的“灾难性”风险。




领导公司备灾小组的迈德里(Aleksander Madry)告诉彭博社,他的团队会每月提交报告给内部新成立的安全顾问团队,再由奥尔特曼与公司董事局分析团队呈交的建议。


迈德里说:“AI本身没有好坏,我们正在塑造它。”


他也希望,其他公司能利用OpenAI的指引来评估旗下AI模型的潜在风险。



今年4月,一群AI领域的领导和专家签署一份公开信,基于对社会有潜在风险理由,要求停止发展一套比OpenAI的GPT-4更有威力的人工智能系统。

Report Page