ChatGPT的誕生,改寫很多領域的遊戲規則。現在,在很多地方,學校和大廠都下ChatGPT封殺令。12月,ChatGPT大紅大紫之際,就有諸多學者和研究人員發出警告:ChatGPT很可能‘殺死’大學論文。最近,紐約市教育局就正式對ChatGPT下封殺令。
無獨有偶,在很多互聯網大廠,ChatGPT也遭到封殺。很多已經習慣向ChatGPT咨詢代碼問題的碼農們,原地爆哭……
大廠封殺ChatGPT,碼農哭
近日,一位碼農在網上發帖稱,在自己所在的大廠,辦公室wifi禁用ChatGPT。這直接把他整崩潰。
博主表示,自己一名初級軟件工程師,而在團隊中,前輩們總是很忙,沒有時間給他解釋問題。
每當他在工作中卡住時,ChatGPT都是他的救星。
但是昨天,當他在辦公室坐下時,忽然發現沒法訪問ChatGPT!他瞬間破防。
在他的帖子下,熱心網友紛紛獻計。
比如,買一個便宜的VPS和域名並設置一個反向代理到ChatGPT官網;在瀏覽器中啟用DoH和ECH;使用一個在線代理;或者在手機上通過電子郵件將輸出結果發送給自己等等。
當然,有網友對公司的這個操作表示贊同:‘你司禁用ChatGPT是很有道理的,好好想想,如果你解決公司問題的代碼可以很輕易地被競爭對手獲得,會產生什麼後果吧。’
‘不要向ChatGPT,或者從ChatGPT上復制粘貼代碼。在法律上,公司或客戶的代碼並不屬於你。而且你也沒有ChatGPT上代碼的版權。如果你這麼做,會讓你面臨訴訟,被解雇。’
的確,已經有大廠向員工發送電子郵件稱:‘ChatGPT不是不能用,但是如果你往裡面上傳代碼,你就會面臨被解雇的風險,因為我們的代碼非常敏感。’
不過,也有網友給出紮心回復:‘如果一個初級開發者在沒有ChatGPT的情況下,就無法完成工作,那麼他對公司來說,真的是可有可無。’
紐約頒佈禁令,師生全都禁用
就在1月3日,擁有全美最大公立學校系統的紐約市,正式頒佈‘ChatGPT禁令’。
也就是說,不管是老師還是學生,都無法在紐約市公立學校的網絡和設備上使用ChatGPT。
最近,洛杉磯和巴爾的摩的學區也加入到這個行列。
紐約市教育局發言人Jenna Lyle表示,雖然ChatGPT可以提供快速和簡單的問題答案,但它不能培養學生批判性思維和解決問題的能力,而這些對於學術和終身成功來說至關重要。
當然,如果學校的目的是研究ChatGPT背後的技術,還是可以申請訪問的。
目前,ChatGPT將對論文作弊的風險產生什麼影響還有待觀察,因為學生仍然可以在校外訪問自己的設備和網絡。
而佐治亞州的科佈縣的態度,不僅沒那麼強硬,甚至還對采用ChatGPT頗有興趣。
該學區的一位發言人表示,‘在高素質的科佈縣教師手中,ChatGPT可以成為補充學生對學術內容理解的寶貴工具,並可以幫助學生發展批判性思維能力。’
對此,在紐約精英高中Brooklyn Tech任教的Adam Stevens也認為,禁用ChatGPT反而會帶來消極的影響。
畢竟在15、20年前,當學生可以‘在網上找到答案’時,這些人也是這麼針對Google的。
Stevens認為,培養學生批判性寫作技能的最好方法是‘邀請他們探索值得解的事情’,並遠離基於嚴格的評分標準的公式化寫作教學。
‘當然,如果你更看重學期末的分數,那麼ChatGPT確實是一個威脅。’
同樣,俄勒岡州桑迪市的一名高中英語老師也有類似的看法。
Shields老師有25年教齡,她認為,其實大可不必‘談ChatGPT色變’,這款AI完全可以被用來幫助學生產生想法、組織思路,甚至撰寫整篇論文。
在她看來,教師們應該接受,AI是學生可以使用的一種工具,就像每個老師都教學生如何使用搜索引擎一樣。
很多學生苦於無話可寫,此時教師可以使用ChatGPT向學生展示如何生成提示,來刺激他們的寫作。
Shields老師曾讓ChatGPT以7年級生、10年級生和大學生的風格寫同一個主題的文章,每個級別之間的句法差異程度令人震驚。因而,完全可以使用這種AI生成的反饋,來向學生展示如何改進他們的寫作。
ICML發文澄清:主要為防止抄襲,不影響潤色文章
前兩天,國際機器學習會議ICML 2023突然宣佈:禁止使用大規模語言模型(如ChatGPT)生成論文的內容,除非這些文本是實驗分析的一部分。
要求一經提出,便引發眾多研究人員的不滿:拼寫檢查和文本預測基於的就是語言模型,為啥不讓我們用?
對此 ,圖靈獎得主Yann LeCun評論道:‘大型語言模型不能用,意思是換成中型和小型語言模型就行咯?’
隨後還不忘陰陽一句:‘明年的ICML道德準則應該變成:研究人員必須徒手完成各種計算,不能借助計算機;各類圖形必須用筆和紙手繪;從今天起,ICML的官方語言變為瑞典語(瑞典:?)。’
由於引發的討論太過激烈,ICML不得不單獨發一條長文來解釋這個規定。概括來說,有三個要點:
政策禁止完全由LLM‘生成’的文本,但這並影響作者使用LLM來編輯或潤色自己寫的文本。
政策主要是防止使用LLM可能會出現的潛在問題,比如抄襲。
目前,政策僅適用於ICML2023。隨著我們對LLM及其對科學出版的影響有更深入的解,這一政策可能會在未來的會議中發生變化。
公告鏈接:https://icml.cc/Conferences/2023/llm-policy
大規模語言模型,爭議叢生
在過去的幾年裡,大規模語言模型(LLM)的發展非常迅速。最近,這一進展不僅沒有放緩,甚至還更快。
正如大傢看到的,過去幾個月發佈的LLM,如OpenAI的ChatGPT,已經能夠生成難以與人類相區分的文本片段。毫無疑問,這是自然語言處理和生成方面令人興奮的進展。
但這種快速的進展往往伴隨著意想不到的後果以及無法解答的問題。比如,由模型生成的文本和圖像是新穎的,還是現有工作的衍生品?
此外,文本片段、圖像以及其他由這些模型產生的內容,又應該歸誰所有:是生成模型的用戶,還是訓練模型的開發者,抑或是制作訓練數據的內容創作者?
可以肯定的是,隨著大規模生成模型被更廣泛地應用,這些問題都將隨著時間的推移得到解答,但現在還不行。尤其是距離ChatGPT的發佈才過不到2個月(2022年11月底)。
而對於ICML來說,他們並沒有足夠的時間來觀察和調研ChatGPT將會對論文審稿和發表過程,產生何種影響。
考慮到針對這項新技術所采用的策略,會直接關系到研究人員的職業生涯。因此ICML表示,自己隻能更加謹慎,甚至還會有些保守。
時有錯漏,但碼農依然愛不釋手
其實,雖然ChatGPT經常因為‘犯蠢’而被嘲,但自它誕生一個多月來,很多碼農的工作習慣,確實被它改變。
在12月初,ChatGPT亮相後,碼農們發現可以用它生成代碼,立馬沸騰。
ChatGPT不僅可以回答任何領域的問題,而且生成的答案,有很大的概率非常精確和詳細。
比如,當你問到‘How to iterate over an keys and values array in Javascript’時,它生成很完美的答案。
錦上添花的是,ChatGPT還能通過一個支持性的例子和解釋,告訴你這個JavaScript中常見問題的最佳解決方案:
甚至,還可以用它給代碼糾錯。
不過隨後,碼農們馬上發現,ChatGPT生成的代碼,其實有不少問題。
ChatGPT會‘犯蠢’,背後原因其實很簡單——AI的輸出,是概率性的。ChatGPT沒有任何標記對錯的內部記錄,它其實是一個統計模型,這個模型中,是在不同上下文中的語言組合。
而上下文的基礎,就是GPT-3訓練所用的整體數據集,來自ChatGPT的RLHF訓練的額外上下文,prompt和之前的對話,以及很快就會有的反饋。
ChatGPT的答案,本質上就是從構成GPT-3的互聯網數據語料庫中收集的概率結果。在10秒內,ChatGPT做出結果的最佳猜測,這個猜測很可能是正確的。
當然,也有錯誤的概率。
這就是為什麼,網友用ChatGPT生成的代碼在Stack Overflow上瘋狂灌水、錯誤答案滿天飛時,後者連夜發佈官方封殺令。
雖然ChatGPT寫代碼的能力被很多人詬病,但其實,用還是可以用的。
其實,ChatGPT最合適的定位,應該是編碼輔助工具。在ChatGPT的發佈方OpenAI看來,ChatGPT的重要用途之一,正是幫助程序員檢查代碼。
對於開發者而言,它就是日益豐富的工具板中的一個工具。而且,就像任何自學模型一樣,ChatGPT也會隨著時間的推移,不斷學習,不斷自我糾正和改進。
很多時候,與其在Stack OverFlow上為相對簡單的問題(如何在Flutter中觸發HookConsumerWidget的重建)等待幾天,不如直接向ChatGPT提問。
因為在ChatGPT上,開發者們有很大概率,得到一個可以用於解決問題的起點——