權限被故意泄露,OpenAI暫停Sora訪問

權限被故意泄露,OpenAI暫停Sora訪問
2024年11月28日 23:04 每日經濟新聞

@全體股民:《投資研報》巨額特惠,滿3000減1000,滿1500減500!【歷史低價手慢無,速搶>>

  每經記者 蔡 鼎 實習記者 岳楚鵬    每經編輯 蘭素英    

  一直被外界寄予極高期望的OpenAI文生視頻AI模型Sora自今年2月首次展示以來,就沒有任何關于何時正式發布的消息了。當地時間11月26日,一些據稱參與了Sora測試的藝術家泄露了該模型的訪問權限(API),以抗議OpenAI對他們的壓榨行為。

  當日,公共AI模型社區Hugging Face突然出現了一個文生視頻的項目。項目團隊使用他們的身份驗證令牌(可能來自早期訪問系統)創建了一個前端,讓所有Hugging Face的用戶可以使用Sora生成視頻。

  通過這一前端,用戶可以通過輸入簡短的文字描述來生成分辨率高達1080p的10秒視頻。但項目創建三個小時后,OpenAI就關閉了所有藝術家對Sora的早期訪問權限。目前該項目已無法使用。在短短的三小時內,用戶通過這一項目生成了87個視頻并發布了出來。

  目前OpenAI并沒有公開確認所謂的Sora泄露是否屬實。但是OpenAI強調,參與其“研究預覽”是“自愿的,沒有義務提供反饋或使用該工具”。

  OpenAI暫停Sora訪問權限這一舉動也暴露出AI行業的透明度問題。隨后,該藝術家團體發布了一個公開信網站,鼓勵任何與他們有相同觀點的人簽署這封公開信。截至發稿,這封信已經收到550個簽名,包括馬斯克。

  藝術家們怒了

  當地時間11月26日,一小群參與Sora測試的藝術家在Hugging Face泄露了Sora的訪問權限,以表達對OpenAI的不滿。項目團隊使用他們的身份驗證令牌(可能來自早期訪問系統)創建了一個前端,讓所有Hugging Face的用戶可以使用Sora生成視頻。

  此前,OpenAI向數百名藝術家開放了Sora的早期使用權,以測試這款新的AI視頻生成器。但部分藝術家認為,OpenAI利用了他們的無償勞動,并利用他們來提升公司形象。

  為引起外界對OpenAI這一行為的關注,他們在公共AI模型社區Hugging Face上發布了一個在線項目,允許公眾使用Sora生成視頻。

  隨項目同時發布的還有一封言辭激烈的公開信。在信中,藝術家們將OpenAI比作“中世紀的封建領主”,譴責他們利用了藝術家的無私貢獻,卻并沒有給出合理的報酬。“我們獲得了Sora的使用權,并承諾成為早期測試者、紅隊成員和創意合作伙伴。然而,我們認為,我們被引誘進行‘藝術洗白’,以告訴世界Sora對藝術家來說是一個有用的工具。”

  這封信充斥著對OpenAI的不滿,藝術家們寫道:“我們不是你的無償研發人員。我們不是你的免費錯誤測試人員、PR(公關)傀儡、訓練數據和驗證令牌。”

  盡管參與模型測試的藝術家有數百名,但只有少數作品進行展映,而且報酬極為有限,與OpenAI獲得的巨大公關和營銷價值相比,簡直是微不足道。更讓這些藝術家們憤怒的是,“每個影片都需要OpenAI團隊的批準才能分享。這個早期訪問計劃似乎更多關注的是公關和廣告,而不是創作表達和批評。”

  他們在信中強調,“我們并不反對將AI技術作為藝術工具使用(如果我們反對,可能就不會參加這個項目)。我們不同意的是藝術家項目的推出方式,以及該工具在可能公開發布之前的呈現方式。我們發布這個聲明,希望OpenAI能變得更加開放,對藝術家更加友好,并在支持藝術方面不只是公關作秀。”

  他們還呼吁其他藝術家使用開源的視頻生成工具來抵制OpenAI這種閉源公司。“開源視頻生成工具讓藝術家能夠在沒有門檻、商業利益或服務于任何公司的公關目的下,探索前衛藝術。我們也鼓勵藝術家使用自己的數據集來訓練自己的模型。”

  但在藝術家們上線Sora API項目后三小時,OpenAI迅速切斷了訪問權限。OpenAI發言人Niko Felix稱,公司將暫停所有用戶對Sora的訪問,同時調查情況。但是他拒絕說明這個項目是不是真鏈接到了Sora模型。“Sora仍處于研究預覽階段,我們正努力在創造力與更廣泛的強大安全措施之間取得平衡。”

  Felix同時說道:“我們alpha版本的數百名藝術家塑造了Sora的發展,幫助確定新功能和保障措施的優先級。參與是自愿的,沒有提供反饋或使用該工具的義務。我們很高興為這些藝術家提供免費訪問權限,并將繼續通過贈款、活動和其他計劃為他們提供支持。我們相信AI可以成為一種強大的創意工具,并致力于讓Sora既實用又安全。”

  AI研發被指缺乏透明度

  在OpenAI暫停Sora訪問權限后,該藝術家團體發布了一個公開信網站,鼓勵任何與他們有相同觀點的人簽署這封公開信。

  截至發稿,這封信已經收到550個簽名,與OpenAI極其不對付的馬斯克也在其中。

  這次事件在AI行業中并不常見,因為早期測試人員的反饋受到公司的嚴格控制,而且嚴厲的批評很少公開。通常,公司會親自挑選外部人員提前訪問系統,在某些情況下,公司會要求這些用戶簽署保密協議或獲得批準,然后才能公開分享系統生成的任何圖像、視頻或文本響應。

  但最近,越來越多的AI安全專家批評這種做法對獨立研究產生了寒蟬效應,降低了透明度,并阻礙了對公司行為的問責。斯坦福大學的基礎模型透明度指數顯示,沒有一家主要的基礎模型開發商能夠提供足夠的透明度(最高得分54分,滿分100分),這揭示了AI行業缺乏透明度。

  OpenAI的員工此前也指責公司強迫員工簽署“封口協議”,不允許離職員工發表對公司的負面言論,否則公司可以收回員工已有股權。離職員工也不得對外公開這些協議內容。

  為此,今年6月,OpenAI以及谷歌DeepMind的一批員工聯合發布了一份名為《對AI發出警告》的公開信。

  公開信預警,AI技術存在加劇不平等、操縱和誤導信息,失去控制并威脅人類的風險。AI公司技術迭代的同時產生了大量安全相關的非公開信息,它們沒有主動披露的動機。監管部門對此難以形成有效制約,只能由現任或前任員工要求它們向公眾負責。

  上述員工在公開信中對包括OpenAI在內的AI公司提出了4點呼吁:⒈不強迫員工簽訂禁止批評公司的協議;⒉為公司現任和前任員工提供匿名的安全反饋機制;⒊允許現任和前任員工向董事會、監管機構、其他安全機構提出對公司技術安全的擔憂;⒋公司不對公開分享風險相關機密信息的現任和前任員工進行報復。

  正如Hugging Face的一則評論所說,“AI并非憑空而來。它建立在創意人員的肩膀上,而這些創意人員往往沒有得到認可。Sora泄密事件敲響了警鐘:沒有道德的創新就是剝削。”

  翻譯

  搜索

  復制

海量資訊、精準解讀,盡在新浪財經APP

責任編輯:王許寧

AI

VIP課程推薦

加載中...

APP專享直播

1/10

熱門推薦

收起
新浪財經公眾號
新浪財經公眾號

24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)

股市直播

  • 圖文直播間
  • 視頻直播間

7X24小時

  • 12-06 藍宇股份 301585 --
  • 12-02 先鋒精科 688605 11.29
  • 11-29 博苑股份 301617 27.76
  • 11-26 科隆新材 920098 14
  • 11-25 佳馳科技 688708 27.08
  • 新浪首頁 語音播報 相關新聞 返回頂部