新智元報道
編輯:好困 Aeneas
【新智元導讀】ChatGPT的誕生,改寫了很多領域的游戲規則?,F在,在很多地方,學校和大廠都下了ChatGPT封殺令。
12月,ChatGPT大紅大紫之際,就有諸多學者和研究人員發出警告:ChatGPT很可能‘殺死’大學論文。最近,紐約市教育局就正式對ChatGPT下了封殺令。
無獨有偶,在很多互聯網大廠,ChatGPT也遭到了封殺。很多已經習慣向ChatGPT咨詢代碼問題的碼農們,原地爆哭……
大廠封殺ChatGPT,碼農哭了
近日,一位碼農在網上發帖稱,在自己所在的大廠,辦公室wifi禁用了ChatGPT。這直接把他整崩潰了。
博主表示,自己一名初級軟件工程師,而在團隊中,前輩們總是很忙,沒有時間給他解釋問題。
每當他在工作中卡住時,ChatGPT都是他的救星。
但是昨天,當他在辦公室坐下時,忽然發現沒法訪問ChatGPT了!他瞬間破防。
在他的帖子下,熱心網友紛紛獻計。
比如,買一個便宜的VPS和域名并設置一個反向代理到ChatGPT官網;在瀏覽器中啟用DoH和ECH;使用一個在線代理;或者在手機上通過電子郵件將輸出結果發送給自己等等。
當然,有網友對公司的這個操作表示贊同:‘你司禁用ChatGPT是很有道理的,好好想想,如果你解決公司問題的代碼可以很輕易地被競爭對手獲得,會產生什么后果吧。’
‘不要向ChatGPT,或者從ChatGPT上復制粘貼代碼。在法律上,公司或客戶的代碼并不屬于你。而且你也沒有ChatGPT上代碼的版權。如果你這么做,會讓你面臨訴訟,被解雇?!?/p>
的確,已經有大廠向員工發送電子郵件稱:‘ChatGPT不是不能用,但是如果你往里面上傳代碼,你就會面臨被解雇的風險,因為我們的代碼非常敏感。’
不過,也有網友給出了扎心回復:‘如果一個初級開發者在沒有ChatGPT的情況下,就無法完成工作,那么他對公司來說,真的是可有可無?!?/p>
紐約頒布禁令,師生全都禁用
就在1月3日,擁有全美最大公立學校系統的紐約市,正式頒布了‘ChatGPT禁令’。
也就是說,不管是老師還是學生,都無法在紐約市公立學校的網絡和設備上使用ChatGPT。
最近,洛杉磯和巴爾的摩的學區也加入到了這個行列。
紐約市教育局發言人Jenna Lyle表示,雖然ChatGPT可以提供快速和簡單的問題答案,但它不能培養學生批判性思維和解決問題的能力,而這些對于學術和終身成功來說至關重要。
當然,如果學校的目的是研究ChatGPT背后的技術,還是可以申請訪問的。
目前,ChatGPT將對論文作弊的風險產生什么影響還有待觀察,因為學生仍然可以在校外訪問自己的設備和網絡。
而佐治亞州的科布縣的態度,不僅沒那么強硬,甚至還對采用ChatGPT頗有興趣。
該學區的一位發言人表示,‘在高素質的科布縣教師手中,ChatGPT可以成為補充學生對學術內容理解的寶貴工具,并可以幫助學生發展批判性思維能力。’
對此,在紐約精英高中Brooklyn Tech任教的Adam Stevens也認為,禁用ChatGPT反而會帶來消極的影響。
畢竟在15、20年前,當學生可以‘在網上找到答案’時,這些人也是這么針對谷歌的。
Stevens認為,培養學生批判性寫作技能的最好方法是‘邀請他們探索值得了解的事情’,并遠離基于嚴格的評分標準的公式化寫作教學。
‘當然,如果你更看重學期末的分數,那么ChatGPT確實是一個威脅?!?/p>
同樣,俄勒岡州桑迪市的一名高中英語老師也有類似的看法。
Shields老師有25年教齡,她認為,其實大可不必‘談ChatGPT色變’,這款AI完全可以被用來幫助學生產生想法、組織思路,甚至撰寫整篇論文。
在她看來,教師們應該接受,AI是學生可以使用的一種工具,就像每個老師都教學生如何使用搜索引擎一樣。
很多學生苦于無話可寫,此時教師可以使用ChatGPT向學生展示如何生成提示,來刺激他們的寫作。
Shields老師曾讓ChatGPT以7年級生、10年級生和大學生的風格寫同一個主題的文章,每個級別之間的句法差異程度令人震驚。因而,完全可以使用這種AI生成的反饋,來向學生展示如何改進他們的寫作。
ICML發文澄清:主要為防止抄襲,不影響潤色文章
前兩天,國際機器學習會議ICML 2023突然宣布:禁止使用大規模語言模型(如ChatGPT)生成論文的內容,除非這些文本是實驗分析的一部分。
要求一經提出,便引發了眾多研究人員的不滿:拼寫檢查和文本預測基于的就是語言模型,為啥不讓我們用?
對此 ,圖靈獎得主Yann LeCun評論道:‘大型語言模型不能用,意思是換成中型和小型語言模型就行咯?’
隨后還不忘陰陽一句:‘明年的ICML道德準則應該變成:研究人員必須徒手完成各種計算,不能借助計算機;各類圖形必須用筆和紙手繪;從今天起,ICML的官方語言變為瑞典語(瑞典:?)?!?/p>
由于引發的討論太過激烈,ICML不得不單獨發一條長文來解釋這個規定。概括來說,有三個要點:
政策禁止完全由LLM‘生成’的文本,但這并影響作者使用LLM來編輯或潤色自己寫的文本。
政策主要是防止使用LLM可能會出現的潛在問題,比如抄襲。
目前,政策僅適用于ICML2023。隨著我們對LLM及其對科學出版的影響有了更深入的了解,這一政策可能會在未來的會議中發生變化。
公告鏈接:https://icml.cc/Conferences/2023/llm-policy
大規模語言模型,爭議叢生
在過去的幾年里,大規模語言模型(LLM)的發展非常迅速。最近,這一進展不僅沒有放緩,甚至還更快了。
正如大家看到的,過去幾個月發布的LLM,如OpenAI的ChatGPT,已經能夠生成難以與人類相區分的文本片段。毫無疑問,這是自然語言處理和生成方面令人興奮的進展。
但這種快速的進展往往伴隨著意想不到的后果以及無法解答的問題。比如,由模型生成的文本和圖像是新穎的,還是現有工作的衍生品?
此外,文本片段、圖像以及其他由這些模型產生的內容,又應該歸誰所有:是生成模型的用戶,還是訓練模型的開發者,抑或是制作訓練數據的內容創作者?
可以肯定的是,隨著大規模生成模型被更廣泛地應用,這些問題都將隨著時間的推移得到解答,但現在還不行。尤其是距離ChatGPT的發布才過了不到2個月(2022年11月底)。
而對于ICML來說,他們并沒有足夠的時間來觀察和調研ChatGPT將會對論文審稿和發表過程,產生何種影響。
考慮到針對這項新技術所采用的策略,會直接關系到研究人員的職業生涯。因此ICML表示,自己只能更加謹慎,甚至還會有些保守。
時有錯漏,但碼農依然愛不釋手
其實,雖然ChatGPT經常因為‘犯蠢’而被嘲,但自它誕生一個多月來,很多碼農的工作習慣,確實被它改變了。
在12月初,ChatGPT亮相后,碼農們發現可以用它生成代碼,立馬沸騰了。
ChatGPT不僅可以回答任何領域的問題,而且生成的答案,有很大的概率非常精確和詳細。
比如,當你問到‘How to iterate over an keys and values array in Javascript’時,它生成了很完美的答案。
錦上添花的是,ChatGPT還能通過一個支持性的例子和解釋,告訴你這個JavaScript中常見問題的最佳解決方案:
甚至,還可以用它給代碼糾錯。
不過隨后,碼農們馬上發現,ChatGPT生成的代碼,其實有不少問題。
ChatGPT會‘犯蠢’,背后原因其實很簡單——AI的輸出,是概率性的。ChatGPT沒有任何標記了對錯的內部記錄,它其實是一個統計模型,這個模型中,是在不同上下文中的語言組合。
而上下文的基礎,就是GPT-3訓練所用的整體數據集,來自ChatGPT的RLHF訓練的額外上下文,prompt和之前的對話,以及很快就會有的反饋。
ChatGPT的答案,本質上就是從構成GPT-3的互聯網數據語料庫中收集的概率結果。在10秒內,ChatGPT做出了結果的最佳猜測,這個猜測很可能是正確的。
當然,也有錯誤的概率。
這就是為什么,網友用ChatGPT生成的代碼在Stack Overflow上瘋狂灌水、錯誤答案滿天飛時,后者連夜發布了官方封殺令。
雖然ChatGPT寫代碼的能力被很多人詬病,但其實,用還是可以用的。
其實,ChatGPT最合適的定位,應該是編碼輔助工具。在ChatGPT的發布方OpenAI看來,ChatGPT的重要用途之一,正是幫助程序員檢查代碼。
對于開發者而言,它就是日益豐富的工具板中的一個工具。而且,就像任何自學模型一樣,ChatGPT也會隨著時間的推移,不斷學習,不斷自我糾正和改進。
很多時候,與其在Stack OverFlow上為相對簡單的問題(如何在Flutter中觸發HookConsumerWidget的重建)等待幾天,不如直接向ChatGPT提問。
因為在ChatGPT上,開發者們有很大概率,得到一個可以用于解決問題的起點——
(聲明:本文僅代表作者觀點,不代表新浪網立場。)