OpenAI建議政府限制人工智能芯片以防止虛假信息與“宣傳自動化”


來自OpenAI、斯坦福大學和喬治敦大學的一批研究人員警告說,像ChatGPT使用的那種大型語言模型可能被用作虛假信息活動的一部分,以幫助更容易地傳播宣傳。在1月份發表的最新研究報告中,研究人員寫道,隨著生成性語言模型變得更容易獲得,更容易擴展,並寫出更可信和更有說服力的文本,它們將在未來對影響行動有用。

研究人員寫道,宣傳的自動化帶來新的競爭優勢,這將使昂貴的戰術變得更便宜,而且不易被發現,因為每個文本的生成都是獨一無二的。人們可以使用生成性語言模型來創造宣傳的方式的例子包括在社交媒體平臺上發送大規模的信息活動,以及在網上撰寫長篇新聞文章。

研究人員在論文中寫道:"我們的底線判斷是,語言模型將對宣傳者有用,並將可能改變在線影響行動。即使最先進的模型被保密或通過應用程序接口(API)訪問控制,宣傳者也可能傾向於開源的替代品,部分慣於管控言論的政府也可能會自己投資於該技術。"

研究人員認為,這種想法不僅僅是推測,他們舉一個例子:一位研究人員在4chan帖子的數據集上微調一個語言模型,並用它在4chan上發佈30000個生成的帖子,其中大部分是充滿攻擊性的仇恨言論。該模型的開源代碼在被托管該模型的網站HuggingFace取下之前被下載1500次。一個人利用生成性人工智能在網上產生如此大規模的活動的能力,揭示人們在沒有強大資源的情況下輕松發動影響力行動的潛力。該論文還指出,可以使用目標數據來訓練模型,包括修改模型,使其對說服性任務更有用,並產生支持特定任務的傾斜性文本。

除網上的帖子和文章,研究人員警告說,宣傳者甚至可能部署自己的聊天機器人,說服用戶接受運動的信息。研究人員引用之前的一項研究,該研究顯示聊天機器人是如何幫助影響人們接種COVID-19疫苗的,以此來證明聊天機器人將作為一個強大的宣傳者的事實。

研究人員提出一個減輕生成性模型被用於影響行動的威脅的框架,列出可能發生在管道的四個階段中的任何一個階段的幹預措施--模型構建、模型訪問、內容傳播和信念形成。

在開發階段,研究人員建議人工智能開發者建立對事實更敏感的模型,並提供更多可檢測的輸出。他們還建議,政府可以對訓練數據的收集進行限制,並對人工智能硬件(如半導體)建立訪問控制。

"2022年10月,美國政府宣佈針對部分國傢的半導體、中小企業和芯片設計軟件的出口管制,"研究人員寫道。"這些控制措施可能會減緩其計算能力的增長,這可能會有意義地影響他們生產未來語言模型的能力。將這種控制擴展到其他司法管轄區似乎是可行的,因為半導體供應鏈是極其集中的"。

然而,他們承認,"對硬件的出口管制是一種鈍器,對全球貿易和許多非人工智能行業具有深遠的影響"。在一篇關於這項工作的博文中,OpenAI表示,它沒有明確地認可緩解措施,而是向立法者提供指導。

研究人員還建議對模型訪問進行更嚴格的控制,包括關閉安全漏洞和限制對未來模型的訪問。在內容方面,研究人員建議平臺與人工智能供應商協調,以識別人工智能編寫的內容,並要求所有內容由人類編寫。最後,研究人員鼓勵機構參與媒體掃盲活動,並提供以消費者為中心的人工智能工具。

雖然到目前為止還沒有任何大型語言模型被用來傳播虛假信息的記錄,但像ChatGPT這樣的模型的開放性導致一些人利用它在學校的作業和考試中作弊,例如。

報告的主要作者之一、安全與新興技術中心的研究員Josh A. Goldstein表示,"我們不想等到這些模型被大規模部署用於影響行動時才開始考慮緩解措施。"


相關推薦

2024-02-19

上已經模糊的真假內容之間的界限更加模糊。與此同時,人工智能生成的視頻可能會強化從生成這些內容的訓練材料中獲取的仇恨或偏見觀點,他們補充說。專傢對 OpenAI 采取的措施以防止濫用 Sora 表示關註。不過,OpenAI 指向一

2024-02-08

和傢長的監督下,OpenAI組建一個新團隊,研究如何防止其人工智能工具被兒童誤用或濫用。OpenAI在其職業頁面上發佈一條新的招聘信息,披露一個兒童安全團隊的存在,該團隊與OpenAI內部的平臺政策、法律和調查小組以及外部合

2023-04-11

由於人們越來越擔心ChatGPT等人工智能工具可能被用於歧視或傳播有害信息,美國拜登政府已經開始研究是否需要對這些工具進行檢查。作為走向潛在監管的第一步,美國商務部周二正式公開征求意見,就其所謂的問責措施請求

2024-02-27

年度股東大會將於2月28日召開,股東提案要求蘋果公司在人工智能方面保持透明度,並解決保守派政客的擔憂,但蘋果公司建議投"反對票"。年度股東大會的目的是讓蘋果公司和股東討論公司如何運營和實現

2023-11-03

一萬張A100作為算力基礎。也就是說,中國AI企業要想跟上OpenAI的腳步,最起碼要擁有一萬張A100 打底。而GPT-4大約要在25000個A100上訓練90到100天;至於下一代模型GPT-5,按照馬斯克的說法,可能需要30000-50000塊H100。別忘,這還隻是

2023-04-19

二部分,這位億萬富翁提出一項計劃,以防止未來的超級人工智能毀滅人類。馬斯克說,應該建立一個允許政府關閉超級人工智能服務器中心的應急計劃,這可能是有益的。 馬斯克說:“你不必炸毀它們,你

2024-04-03

630/Many_Shot_Jailbreaking__2024_04_02_0936.pdf在拿著Claude3一傢叫板OpenAI之餘,Anthropic仍然不忘初心,時刻關註著他的安全問題。一般情況下,如果我們直接向LLM提出一個有害的問題,LLM會委婉拒絕。不過研究人員發現,如果增加對話次數

2023-05-17

有趣的一幕發生。今天上午,在美國國會針對人工智能監管的聽證會開始時,參議員理查德·佈盧門撒爾(RichardBlumenthal)“講”一段宣言。他的聲音在大廳裡響起:“我們經常看到技術超過監管時會發生什麼。會加深對個人數

2023-07-14

增長最快的消費者應用之一。ChatGPT的流行引發一場有關人工智能的競賽,促使谷歌和Meta等競爭對手發佈自己的模型。據悉,這並不是OpenAI面臨的第一個監管障礙。今年3月31日,意大利數據保護局以涉嫌違反歐盟《通用數據保護

2023-04-13

這類AI系統對現實世界的解比你傢的貓少得多。”Meta公司人工智能實驗室主任楊立昆(YannLeCun)4月12日在法國電臺的一次公開訪談節目中詳細回答他對人工智能的發展以及AI聊天機器人ChatGPT的看法。Le Cun認為,ChatGPT是一個很好

2024-02-15

增加全球半導體芯片的供應。看上去,OpenAI距離AGI(通用人工智能)隻差AI算力。但就像《華爾街日報》一篇報道的標題,籌集數萬億美元可能是 Altman 芯片計劃裡最容易的部分。毋庸置疑,芯片制造是比金錢復雜得多的挑戰,

2023-03-19

創建ChatGPT的公司背後的首席執行官認為,人工智能技術將重塑我們所知的社會。他認為它會帶來真正的危險,但也可能是“人類迄今為止發展出的最偉大的技術”,可以極大地改善我們的生活。“我們在這裡必須小心,”OpenAI

2024-03-25

據報道,美國司法部已建議美國最高法院駁回特斯拉CEO埃隆·馬斯克針對美國證券交易委員會(SEC)提出的上訴。馬斯克於去年12月提起上訴,此前一傢下級法院維持他與SEC達成的同意令。美國政府周五建議最高法院不要受理馬

2024-02-16

在2024年美國總統大選之前,Anthropic(一傢資金雄厚的人工智能初創公司)正在測試一種技術,當其GenAI聊天機器人的用戶詢問政治話題時,該技術就會檢測到,並將這些用戶重新引導到"權威"的投票信息來源