研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度 或将加大监管难度

联合早报
一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大监管难度。(路透社)

一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。


法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。


得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama 2”,得分为54%。



推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。


谷歌推出的“PaLM 2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude 2”人工智能模型(36%)。




研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。”


此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。”


这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。


Report Page