OpenAI 推出 Model Spec:负责任的人工智能行为方法如何发展

最近,OpenAI向公眾公開了其內部文件《模型規範》(Model Spec),詳細描述了公司打算如何管理其人工智慧模型的行為。此舉反映了OpenAI擴大討論的意願,探討現代算法應該遵循的原則,包括與生成各類內容相關的複雜問題。

規則架構:新系統的基礎

《模型規範》基於三個關鍵支柱,應該指導公司所有AI系統的行為。第一個原則聚焦於有用性——模型應根據任務需求,向開發者和最終用戶提供建設性回應。第二個原則以人類福祉為導向,要求算法在考慮潛在利益的同時,也要評估可能的風險。第三個原則則確保OpenAI遵守社會規範和現行法律。

公司還制定了一套針對使用AI技術的開發者的具體限制,包括遵守指揮鏈、遵守當地法律、避免散布假資訊、尊重版權、保護用戶個人資料,以及避免默認生成露骨內容。

自由與責任的平衡

《模型規範》中最具爭議的部分之一是關於NSFW(不適合工作場合)內容及其管理。根據文件,OpenAI正進行研究,探討公司如何在符合年齡限制的情境下,負責任地提供生成此類內容的能力——無論是通過API還是ChatGPT界面。這意味著公司認為用戶和開發者可以根據具體應用調整AI助手的“敏感程度”。

這種做法暗示OpenAI並不完全禁止某些內容類型,但強調負責任且受控的傳播,這需要透明度、年齡驗證和明確的使用規則。

AI的預設行為標準

《模型規範》描述了AI助手在標準配置下建議的行為類型。模型應以用戶的善意為出發點,必要時提出澄清問題,遵守設定的界限,保持客觀立場,堅決拒絕仇恨言論,並避免試圖說服他人改變信仰。此外,當模型對自己的回答不完全確定時,應誠實表達不確定性。

OpenAI產品經理Joan Jang解釋了該文件的目標:公司希望獲得科學界、政策制定者和社會大眾的建議,了解AI系統應如何運作。她表示,《模型規範》有助於更清楚地區分算法的故意與偶然行為,這在推出新版本時尤為重要。

從理論到實踐:未來的變化

值得注意的是,《模型規範》不會影響已發布的產品——ChatGPT、GPT-4和DALL-E 3將繼續按照現有政策運行。該文件旨在作為一套活的、持續演進的指導原則,將根據反饋定期更新。

OpenAI積極邀請各方參與討論——從政策制定者、慈善組織到各領域的獨立專家。公司開放接受建議,關於需要對文件進行哪些調整,但目前尚未公開決策標準或誰將負責制定《模型規範》的發展方向。

展望與未解之謎

《模型規範》的出現表明,OpenAI意識到在管理AI系統方面需要更高的透明度。然而,仍有未解答的問題:社群的建議將如何被考慮?如何解決不同觀點之間的衝突?何時會發布第二版?目前尚無相關資訊。

此前,OpenAI已嘗試通過推出識別人工智能生成內容的工具來增強用戶信任。 《模型規範》則是這一方向的下一步——旨在建立負責任的AI技術發展的統一標準。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言