Homegi
avatar-avatar
Homegi
更新 發佈閱讀 2 分鐘

今日讀報時,看到一篇報到在介紹一個過去沒有在意過名叫AI2的組織,最近公開了一項全新的AI語言模型,很好奇他的新功能是什麼,看完後簡單跟大家介紹一下吸收到的內容:


剛剛提到的組織AI2,是美國的非營利組織,他們專注於「構建人工智慧 for 公共利益」,致力於開發xAI,xAI的意義在於:可解釋及推理,強調倫理且負責任的AI,能夠從結果往回推出推理的邏輯思路。而他們在這個月時發布了一項名為Olmo 3的開源大型語言模型,它不僅提供了模型權重,還公開他們的訓練數據、程式碼、模型架構設計,讓其他有興趣的外部研究人員們都能根據他們的研究,完全重現與審查訓練流程,也能夠在途中加入自己的數據,重新訓練、分岔出屬於自己的新模型


過去大家最常詬病的就是在於生成式AI的黑箱,無法了解AI背後是如何產生這個結果與答案便難以信任,且若是對於AI回答的問題沒有一定了解時,有時會出現難以辨別他是否出現幻覺的狀況,而這個研究除了增加學術研究上的追蹤驗證方便外,在業界或日常使用上也能增強可信度與自定義的可能性。而能夠有這樣的組織,擁有鴻鵠之志與人類發展的遠見,真的是心懷大愛!


哈斯的採購人生-avatar-img
哈斯的採購人生喜歡這篇
avatar-img
加入討論
avatar-avatar
Homegi
更新 發佈閱讀 2 分鐘

今日讀報時,看到一篇報到在介紹一個過去沒有在意過名叫AI2的組織,最近公開了一項全新的AI語言模型,很好奇他的新功能是什麼,看完後簡單跟大家介紹一下吸收到的內容:


剛剛提到的組織AI2,是美國的非營利組織,他們專注於「構建人工智慧 for 公共利益」,致力於開發xAI,xAI的意義在於:可解釋及推理,強調倫理且負責任的AI,能夠從結果往回推出推理的邏輯思路。而他們在這個月時發布了一項名為Olmo 3的開源大型語言模型,它不僅提供了模型權重,還公開他們的訓練數據、程式碼、模型架構設計,讓其他有興趣的外部研究人員們都能根據他們的研究,完全重現與審查訓練流程,也能夠在途中加入自己的數據,重新訓練、分岔出屬於自己的新模型


過去大家最常詬病的就是在於生成式AI的黑箱,無法了解AI背後是如何產生這個結果與答案便難以信任,且若是對於AI回答的問題沒有一定了解時,有時會出現難以辨別他是否出現幻覺的狀況,而這個研究除了增加學術研究上的追蹤驗證方便外,在業界或日常使用上也能增強可信度與自定義的可能性。而能夠有這樣的組織,擁有鴻鵠之志與人類發展的遠見,真的是心懷大愛!


哈斯的採購人生-avatar-img
哈斯的採購人生喜歡這篇
avatar-img
加入討論