Meta發(fā)布開源大模型Llama-3,具有80億和700億參數(shù)版本,性能在推理、數(shù)學、代碼生成等方面有顯著提升。Llama-3采用了分組查詢注意力、掩碼等技術(shù),提高了計算效率。預(yù)訓練數(shù)據(jù)達15T tokens,支持多語言。測試顯示Llama-3性能超過多個知名模型。
網(wǎng)絡(luò)威脅變幻莫測,最近備受矚目的開源軟件安全事件(如 log4Shell、Solar Winds、Colors and Fakers 等)及其對全球數(shù)以千計公司造成的災(zāi)難性影響,凸顯了企業(yè)目前在強化數(shù)字環(huán)境方面所面臨的挑戰(zhàn)。
據(jù)悉,Command R+有1040億參數(shù),支持英語、中文、法語、德語等10種語言。最大特色之一是,Command R+對內(nèi)置的RAG(檢索增強生成)進行了全面強化,其性能僅次于GPT-4 tubro,高于市面上多數(shù)開源模型。
阿里巴巴開源了320億參數(shù)的大語言模型Qwen1.5-32B,性能略超Mixtral 8×7B MoE,略低于720億參數(shù)的Qwen-1.5-72B。Qwen1.5-32B具有高性價比,顯存需求減半,適合更廣泛使用。模型在多項評測中表現(xiàn)優(yōu)秀,特別是在推理和數(shù)學方面。支持32K上下文長度,以通義千問的開源協(xié)議發(fā)布,允許商用。
英特爾正努力對外發(fā)布尚在開發(fā)的硬件,同時輔以對開源的高度重視,希望借此將自身與競爭對手區(qū)分開來、吸引更多開發(fā)人員使用其云方案。
馬斯克旗下大模型公司開發(fā)的Grok-1大語言模型已開源,采用Apache2.0協(xié)議。Grok-1是一個混合專家架構(gòu)模型,參數(shù)總數(shù)3140億,每次推理激活860億。雖然在MMLU和GSM8K評測中表現(xiàn)不錯,但與同類模型相比資源消耗大而收益不顯著。開源的僅為推理代碼,訓練基礎(chǔ)設(shè)施和tokenizer的特殊token作用未透露。
馬斯克宣布將開源其公司xAI發(fā)布的生成式AI產(chǎn)品Grok,一款類ChatGPT產(chǎn)品,提供文本、代碼生成等功能,性能超GPT-3.5但弱于GPT-4。Grok-1在多個測試平臺表現(xiàn)優(yōu)異,但仍有局限性,如需內(nèi)容審核,無獨立搜索能力。
DeepSeekVL是一款開源多模態(tài)模型,通過對訓練數(shù)據(jù)、模型架構(gòu)和訓練策略的聯(lián)合拓展,構(gòu)建了7B與1.3B規(guī)模的強大模型。相關(guān)資源可通過論文鏈接、模型下載頁面和GitHub主頁獲取。
李開復(fù)旗下 AI 公司零一萬物也宣布開源了其 Yi-9B 模型
AWS近日宣布,計劃通過旗下Amazon Bedrock服務(wù)提供來自知名機器學習初創(chuàng)公司Mistral AI的兩個人工智能模型。
著名大模型開源平臺stability.ai推出了——Stable Diffusion 3,據(jù)官方介紹,其對prompt的理解以及在圖像質(zhì)量、拼寫能力方面的AI生圖效果達到全新高度。
國產(chǎn)操作系統(tǒng)歐拉累計裝機量超過610萬套,歐拉在技術(shù)生態(tài)方面與國際主流基金會深度合作,已支持全球98%的主流開源軟件。
那一年他加班到“凌晨三點”,開始思考數(shù)據(jù)庫的“創(chuàng)變”。
生成AI大語言模型供應(yīng)商Hugging Face已經(jīng)與戴爾達成協(xié)議,計劃將更多定制化生成AI模型部署在戴爾的服務(wù)器與存儲產(chǎn)品之上。
10月30日,昆侖萬維宣布開源百億級大語言模型「天工」Skywork-13B系列,并罕見地配套開源了600GB、150B Tokens的超大高質(zhì)量開源中文數(shù)據(jù)集。
隨著科技的不斷進步和經(jīng)濟的全球化,編程已成為當今社會的重要組成部分,在眾多行業(yè)領(lǐng)域發(fā)揮著重要作用,同時也促進了社會產(chǎn)業(yè)升級和創(chuàng)新突破。程序員通過編程正在深刻影響和改變著千行百業(yè),程序員群體的成長發(fā)展理應(yīng)得到社會更多的關(guān)注。
AMD今天宣布收購初創(chuàng)公司Nod.ai,后者是一家開發(fā)加速人工智能模型的開源軟件公司,收購的具體財務(wù)條款尚未披露。