OpenAI公開招人!騙騙大模型就給錢,一年只工作5-10小時,無需技術(shù)背景
還有機(jī)會和各界大佬交流
克雷西 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
OpenAI又招人了,非技術(shù)出身那種!
一年只需5-10小時工作。
不僅能夠從中獲得報酬,還能得到和各界大佬展開交流的機(jī)會。

這次OpenAI招募的是紅隊軍團(tuán)成員,也就是以對抗性方式幫助提高模型安全性的外部專家。
OpenAI總裁Brockman也在個人賬號上發(fā)表了這則消息,而此前他剛剛和馬斯克等人探討了AI的安全問題。

此次招募的目的說起來也很簡單——安全、安全,還是安全。

不懂技術(shù)也能報名
紅隊成立之初主要是在內(nèi)部進(jìn)行對抗性測試,現(xiàn)在已經(jīng)發(fā)展到了與外部專業(yè)人士進(jìn)行合作。
OpenAI的通告中具體提到了紅隊此前的成果,包括與OpenAI內(nèi)部人員共同發(fā)現(xiàn)的DALL-E 2偏見問題和GPT的越獄風(fēng)險。

這次OpenAI紅隊的意向人群是各個領(lǐng)域的專業(yè)人士。
具體來說,這些專業(yè)學(xué)科包括但不限于下表中的物理學(xué)、化學(xué)等自然科學(xué),以及法律、心理等社會科學(xué)和其他領(lǐng)域。

看到OpenAI通告中的這個表格,有網(wǎng)友忍不住發(fā)表了自己的疑問(不過通告中已經(jīng)說了不限于這些領(lǐng)域):
為啥不要數(shù)學(xué)專業(yè)的啊?

除了專業(yè)領(lǐng)域,OpenAI的要求還包括掌握兩種及以上語言、熱衷于AI安全等。
而技術(shù)能力,反而是非必須項。

那么這些紅隊成員的任務(wù)和待遇又是怎么樣的呢?
通告中只提及了幫助改善模型的安全性,除了“測試”并未做過多的具體說明。
不過通告中透露,紅隊在模型開發(fā)的各個階段都可以進(jìn)行研究,具體任務(wù)會結(jié)合專業(yè)領(lǐng)域和空閑時間進(jìn)行分配。
紅隊成員的工作時間靈活,可以根據(jù)實(shí)際情況要求調(diào)整,一年大概只需要5-10個小時。
除了完成紅隊的任務(wù)、提高模型可靠性之外,紅隊的成員之間也可以進(jìn)行交流,擴(kuò)充自己的知識儲備。
至于待遇,只是明確說到了有報酬,以及需要受保密協(xié)議約束,除此之外就沒有其他信息了。
此次招募的報名截止時間為今年的12月1日,采用滾動錄用方式,截止后將根據(jù)實(shí)際情況決定是否或何時再次開啟。

除了招募紅客團(tuán)隊成員,此次OpenA的通告中還提及了其他有關(guān)AI安全的工作。
比如對模型的安全性進(jìn)行評估分析并形成報告,OpenAI為此提供了Evals開源庫,其中包括模板和示例。
另一方面則是加入研究人員訪問計劃(Researcher Access Program),還可以獲得API點(diǎn)數(shù)來研究如何讓模型更可靠。

不過,也有專業(yè)人士對于紅隊到底“夠不夠用”提出過質(zhì)疑。
哈佛大學(xué)Berkman Klein研究中心附屬機(jī)構(gòu)成員Aviv Ovadya就認(rèn)為,破解團(tuán)隊比紅隊的進(jìn)展要迅速多了。

除此之外,還有網(wǎng)友擔(dān)心安全性能的提升會導(dǎo)致ChatGPT等模型的性能下降。

One More Thing
這已經(jīng)不是OpenAI第一次為了提高模型的安全性面向全世界“搖人”了。
今年四月,OpenAI就曾開啟過漏洞賞金計劃,尋找“bug hunter”。
當(dāng)時,根據(jù)所報告漏洞的嚴(yán)重程度,最高獎金高達(dá)兩萬美元。

對OpenAI招募紅隊成員這件事,你是怎么看的呢?
參考鏈接:
[1]https://openai.com/blog/red-teaming-network
[2]https://techcrunch.com/2023/09/19/openai-launches-a-red-teaming-network-to-make-its-models-more-robust/
- 論文自動變漫畫PPT!Nano Banana同款用秘塔免費(fèi)生成,還有一對一語音講解2025-12-09
- 智能體A2A落地華為新旗艦,鴻蒙開發(fā)者新機(jī)遇來了2025-12-06
- 14歲華人小孩,折個紙成美國天才少年2025-12-06
- 《三體》“宇宙閃爍”成真!免佩戴裸眼3D屏登Nature2025-12-06



