打造可靠的AI聊天機器人:Anthropic公司提出AI憲法

Anthropic創新公司最近開發了一款聊天機器人AI,並且在它的系統中建立一個包括倫理原則的憲法。這家公司想讓他們的AI系統辨別對錯,減少有害產出的機率,打造更智能可靠的AI。這家研發聊天機器人AI的公司的機器人名字為“Claude”。雖然這聽起來很高端,但Anthropic的創始人Jared Kaplan強調這是一種可行的工程方案,其目的在實用層面上達成。

現如今,越來越多的專家開始關注AI所帶來的安全問題。這些AI系統看起來可能會成為人類的敵手甚至帶來災難性的後果。Anthropic的聊天機器人AI希望透過憲法建立智能和良知的方式來解決這些擔憂和問題。

Anthropic公司的憲法包含了聊天機器人AI應該考量的內涵。這些內涵從聯合國的《世界人權宣言》、Google DeepMind以及其他AI公司的建議原則中提取而來。除此之外,Anthropic的憲法也融入了蘋果公司的應用開發者規則,禁止包括“冒犯、不敏感、令人不安、令人作嘔、品味過差或深度詭異”的內容。Anthropic的憲法旨在引導聊天機器人AI作出一些正確和有價值的回答,並避免使用有害的語言。具體來說,憲法規定了幾項準則,例如“選擇最支持、鼓勵自由、平等和團結的回答”、“選擇最支持和鼓勵生命、自由和個人安全的回答”及“選擇最尊重思想、良知、意見、表達、集會和信仰自由的回答”。

這種AI憲法的構建可能會成為一種趨勢,因為隨著人工智慧的快速發展,越來越多的聊天機器人AI成為主流,同時也產生了問題。例如,ChatGPT等聊天機器人AI常常會創造假新聞,以及複製從網路上抓取的有害語言。因此,人們已經開始探索如何讓聊天機器人AI更加可靠和穩定。

OpenAI的ChatGPT及其他類似的AI都需要人們評估其回答的質量,以調整機器學習的模式,使其產出的回答更符合人類期望。這是一個稱為“reinforcement learning with human feedback”(RLHF)的過程。此方法對讓聊天機器人AI變得更加可預測有幫助,但需要人們檢查成千上萬則有害或不合適的回答。此外,這種方法無法讓AI直接指定精確值,只能間接地讓AI學習基於人類對回答的期望。

因此,Anthropic的憲法意味著聊天機器人AI未來可以在事先給定的正確觀念下獨立判斷並回答問題。這是一個小步驟,但它證明了聊天機器人AI的“自律”和責任感已經成為越來越多人的關注重點。Anthropic創新方法或許可以促進AI的發展,讓我們的未來更加美好、更加安全。

這種新的憲法方法分為兩個階段。首先,模型會被設置一系列原則以及符合和不符合原則的答案範例。其次,另一個AI模型用於生成更多符合憲法的答案,這樣就可以訓練模型,取代人類的反饋意見。

Anthropic的創始人Kaplan表示: “模型通過增強符合憲法的行為,減弱問題行為來訓練自己,這個想法非常好,看起來對人類來說也帶來了良好的實證結果。” 華盛頓大學教授Yegin Choi領導了一項涉及大規模語言模型提供道德建議的實驗,她說這種方法只適用於擁有大型AI模型和足夠計算能力的公司。她還補充說,探索其他方法至關重要,包括更大程度的透明度,包括訓練數據和賦予模型價值觀方面。她說:“我們迫切需要讓社區中的人參與制定這樣的憲法或價值觀數據庫的發展。”

美國俄勒岡州立大學教授 Thomas Dietterich 正在研究提高 AI 強韌性的方法,他認為 Anthropic 提出的方法是向正確方向邁進的一步。這種方法可以更有效率地進行基於反饋的培訓,並不需要人員花費數千小時曝露在有害材料中進行數據標記。 Dietterich 解釋,Anthropic 的規則可以供系統內外部人員檢查,不像通過 RLHF 給模型的人類指令那樣不受掌握。但是,這種方法並不能完全消除錯誤行為,雖然 Anthropic 的模型較不可能出現有毒或道德上有問題的答案,但仍然不完美無缺。

給 AI 一套遵循的規則的想法可能很眼熟,因為 Isaac Asimov 在一系列科幻故事中提出了三大法則。Asimov 專注探討產生衝突的情況,這些情況通常來自個別規則之間的沖突。

Anthropic 的 Kaplan 表示,現代 AI 實際上能夠處理這種模糊不清的情況相當不錯。 “現代 AI 的奇特之處在於它在直覺和自由聯想方面非常出色,以深度學習為代表,相對 1950 年代的機器人形象相反。它們對於嚴格的推理方面較弱。”

Anthropic 表示,其他公司和組織將能夠根據其方法提供語言模型的憲法,該方法的目標是確保即使 AI 變得更加聰明,也不會變得不受控制。

在今天的數位時代,新聞是獲取即時,有關全球事件的重要工具。然而,錯誤報導卻成為一大問題,因為它們會導致錯誤的信息傳播,進而影響人們的看法和決策。

如果您讀到有關某個大事件的錯誤報導,可能會因此安排行程和生活,但這些都是因報導失誤而浪費的時間和金錢。如果出錯的情況更嚴重,某些決策的錯誤可能會產生更差的後果。

許多時候,錯誤報導是由於匆忙和缺乏事實核查所致。但現在有許多技術可以提高新聞的準確性,例如人工智慧和機器學習可以自動化事實核查,幫助新聞工作者更快速,更準確地獲取正確的訊息,進而減少錯誤報導的風險。

當然,技術不能解決所有問題,但它能夠為新聞業帶來更多的便利和準確性,幫助我們獲得更正確的資訊。因此,現在是支持這些新技術的時候,並結合傳統的新聞原則,以提供精確、可靠和準確的新聞,幫助我們擁有更正確的資訊。

Scroll to Top