選項
首頁
新聞
前OpenAI工程師分享公司文化與快速成長的見解

前OpenAI工程師分享公司文化與快速成長的見解

2025-08-11
27

前OpenAI工程師分享公司文化與快速成長的見解

三週前,Calvin French-Owen,一位為OpenAI關鍵產品做出貢獻的工程師,離開了公司。

他最近發表了一篇引人入勝的部落格文章,詳細描述了他在OpenAI一年的經歷,包括開發Codex的緊張努力,這是一個與Cursor和Anthropic的Claude Code競爭的編碼代理。

French-Owen澄清,他的離職並非因內部衝突,而是源於他希望回歸創業生活。他之前共同創辦了Segment,一個於2020年被Twilio以32億美元收購的客戶資料平台。

他對OpenAI文化的見解證實了一些預期,同時也挑戰了對該組織的某些假設。

快速擴張:他指出,OpenAI的員工數在他任職期間從1,000人激增至3,000人。

這種成長反映了公司作為史上增長最快的消費產品的地位,ChatGPT截至3月已超過5億活躍用戶,且持續增長。

規模挑戰:French-Owen觀察到:“快速成長打亂了一切:溝通、報告結構、產品開發、團隊管理與招聘流程。”

現正直播!TechCrunch全階段

更智慧地創新。更快速地成長。更深入地聯繫。與來自Precursor Ventures、NEA、Index Ventures、Underscore VC等領袖進行策略、工作坊及有價值的聯繫。

TechCrunch全階段通行證節省450美元

更智慧地創新。更快速地成長。更深入地聯繫。與來自Precursor Ventures、NEA、Index Ventures、Underscore VC等領袖進行策略、工作坊及有價值的聯繫。

波士頓,麻薩諸塞州 | 7月15日起 立即註冊

儘管規模龐大,OpenAI仍保持初創企業般的環境,員工可以以最少的官僚程序執行想法。然而,這導致了重複工作,French-Owen提到“至少有六個用於任務如隊列管理或代理循環的程式庫”。

編碼專業知識差異很大,從構建可擴展系統的前Google工程師到對生產代碼經驗較少的新進博士。結合Python的靈活性,這導致中央代碼儲存庫“有些混亂”,他解釋道。

他補充說,頻繁的故障和緩慢的流程很常見,雖然高級工程領導正在積極解決這些問題。

初創能量:OpenAI像一家靈活的初創企業運作,高度依賴Slack,讓人聯想到Meta早期快節奏的Facebook時代,許多前Meta員工在職。

French-Owen回顧了他的團隊——大約八名工程師、四名研究員、兩名設計師、兩名市場推廣人員和一名產品經理——在短短七週內構建並推出了Codex,工作不懈。

推出令人矚目。他寫道:“僅在側邊欄啟動Codex就推動了大量用戶採用,展示了ChatGPT的巨大影響力。”

保密文化:強烈的公眾審查在OpenAI內部形成了保密環境,以防止洩密。然而,公司密切監控X,對熱門帖子做出反應,French-Owen引用朋友的俏皮話:“這個地方靠社交媒體熱度運作。”

澄清誤解:French-Owen表示,關於OpenAI最大的誤解是認為其缺乏對安全的重視。雖然一些前員工批評其安全實踐,但他強調針對仇恨言論、濫用、政治操縱、生物武器、自殞和提示注入等問題的實際安全努力。

他指出,OpenAI並未否認長期風險,研究人員正在研究數百萬人使用其模型進行醫療建議和治療等關鍵任務的潛在影響。

在政府和競爭對手的密切觀察下,OpenAI也在回望其競爭對手,他總結道:“感覺賭注極高。”

相關文章
OpenAI 將 ChatGPT Pro 升級至 o3,提升每月 200 美元訂閱的價值 OpenAI 將 ChatGPT Pro 升級至 o3,提升每月 200 美元訂閱的價值 本週,包括 Microsoft、Google 和 Anthropic 在內的科技巨擘都發表了重要的 AI 發展。OpenAI 以自己的突破性更新結束了這一連串的公告 - 除了高調地以 65 億美元收購 Jony Ive 的設計公司,推出代號為「io」的雄心勃勃的硬體計畫之外。該公司已大幅強化 ChatGPT 內的 Operator 自主網頁導覽系統,從先前的 GPT-4o 架構過渡到先進的 o3
非營利組織利用 AI 代理提升慈善募款工作 非營利組織利用 AI 代理提升慈善募款工作 當各大科技公司將人工智慧「代理」推廣為企業生產力的助推器時,一家非營利組織正在展示人工智慧在社會公益方面的潛力。由 Open Philanthropy 支持的慈善研究組織 Sage Future 最近進行了一項創新實驗,展示 AI 模型如何協同進行慈善募款。該非營利組織將 OpenAI 的 GPT-4o 與 o1,以及 Anthropic 的 Claude 3.6 與 3.7 Sonnet 等
頂尖 AI 實驗室警告人類正在失去理解 AI 系統的能力 頂尖 AI 實驗室警告人類正在失去理解 AI 系統的能力 來自 OpenAI、Google DeepMind、Anthropic 和 Meta 的研究人員,史無前例地展現團結,擱置競爭分歧,就負責任的 AI 開發發出集體警告。來自這些典型競爭組織的 40 多位頂尖科學家共同撰寫了一份突破性的研究論文,強調確保 AI 決策過程透明化的窗口正在快速關閉。此次合作的重點在於現代人工智能系統的一項關鍵發展 - 在產生最終輸出之前,以人類可讀的語言闡明推理過程的新
評論 (2)
0/200
MatthewTaylor
MatthewTaylor 2025-08-20 15:01:19

Really fascinating read about OpenAI's culture! The fast-paced growth sounds thrilling but kinda stressful too. Wonder how they balance innovation with burnout? 🤔

WalterWilliams
WalterWilliams 2025-08-15 17:01:00

Really eye-opening read! Calvin’s take on OpenAI’s fast-paced culture is wild—makes me wonder how they balance speed with ethics. 😅 Anyone else curious about the chaos behind the scenes?

回到頂部
OR