亚洲综合色丁香婷婷六月图片,亚洲欧洲av一区二区久久,亚洲精品欧美综合四区,亚洲熟妇少妇任你躁在线观看无码,亚洲精品中文字幕乱码

 
當(dāng)前位置: 首頁 » 行業(yè)聚焦 » 科技前沿 » 正文

Sora“滿月”了,但不止一個AI在新生

可能是科技史上最密集的AI動態(tài)發(fā)布月


  來源: 澎湃新聞·澎湃號·湃客 時間:2024-03-18 作者:流川
分享到:

?

Claude 3模型家族包括三種最先進的型號:Claude 3 Haiku、Claude 3 Sonnet 和 Claude 3 Opus。Haiku、Sonnet和Opus分別指“俳句、十四行詩、音樂藝術(shù)大作”。


Opus和Sonnet現(xiàn)已可在claude.ai中使用,而 Claude API現(xiàn)已在159個國家/地區(qū)廣泛使用。Haiku在3月15日正式推出。


Anthropic由OpenAI前高管創(chuàng)立,投資者包括谷歌、Salesforce、亞馬遜、高通等科技巨頭,估值超過150億美元。


零一萬物發(fā)布并開源 Yi-9B,代碼數(shù)學(xué)綜合能力全面增強


3月6日,零一萬物開源了Yi-9B模型,是目前 Yi 系列模型中代碼和數(shù)學(xué)能力最強的模型。


Yi-9B的實際參數(shù)為8.8B,與Yi系列其他模型一樣,默認(rèn)上下文長度是4K tokens。Yi-9B是在 Yi-6B (使用了3.1T tokens訓(xùn)練)的基礎(chǔ)上,使用了0.8T tokens進行繼續(xù)訓(xùn)練,使用截止至2023年6月的數(shù)據(jù)。


Inflection.ai發(fā)布 Inflection-2.5,升級對話模型Pi


3月7日,Inflection.ai推出Inflection-2.5,這是升級后的內(nèi)部模型,它將原始能力與標(biāo)志性個性和獨特的同理心微調(diào)結(jié)合在一起。Inflection-2.5現(xiàn)已向所有Pi用戶開放,可通過網(wǎng)頁、iOS、Android或桌面應(yīng)用程序使用。


Inflection-2.5接近GPT-4的性能,但僅使用了40%的計算量用于訓(xùn)練。每天有100萬活躍用戶和每月600萬活躍用戶與Pi交換了超過40億條消息。


Inflection.ai的大模型通過微軟Azure、CoreWeave上對用戶提供服務(wù)。


馬斯克宣布xAI本周開源Grok


馬斯克在去年成立了大模型公司xAI,并與去年11月發(fā)布AI聊天機器人Grok。


Grok基于Grok-1大模型,開發(fā)大約花了四個月的時間(包括2個月的訓(xùn)練),上下文長度為8192,訓(xùn)練數(shù)據(jù)截至2023年第三季度。Grok可以提供生成文本、代碼、郵件、信息檢索等功能。Grok對所有X Premium+訂閱用戶開放,每月費用為16美元。


3月11日,馬斯克宣布本周開源Grok。在這一帖子下面,有網(wǎng)友回復(fù)“OpenAI也應(yīng)該這么做”。馬斯克則回復(fù)該評論稱:“OpenAI是個謊言?!?


蘋果發(fā)布300億參數(shù)大語言模型MM1


3月14日,蘋果發(fā)布了一個300億參數(shù)的多模態(tài)大模型MM1。


通過細致的消融研究,作者們發(fā)現(xiàn),對于大規(guī)模多模態(tài)預(yù)訓(xùn)練,混合使用圖像標(biāo)題、交錯的圖像-文本數(shù)據(jù)和純文本數(shù)據(jù)對于在多個基準(zhǔn)測試中實現(xiàn)最先進的少次學(xué)習(xí)結(jié)果至關(guān)重要。此外,圖像編碼器、圖像分辨率和圖像標(biāo)記數(shù)量對性能有顯著影響,而視覺-語言連接器的設(shè)計相對不那么重要。


研究結(jié)果表明,通過擴大模型規(guī)模,構(gòu)建的MM1模型系列在預(yù)訓(xùn)練指標(biāo)上達到了最先進的水平,并在一系列多模態(tài)基準(zhǔn)測試中的監(jiān)督微調(diào)后取得了有競爭力的性能。大規(guī)模預(yù)訓(xùn)練使得MM1具備了上下文學(xué)習(xí)、多圖像推理等吸引人的特性,能夠進行少次鏈?zhǔn)剿季S提示。


多模態(tài)模型


meta發(fā)布非生成路線視頻模型V-JEPA


2月15日,meta公開發(fā)布視頻聯(lián)合嵌入預(yù)測架構(gòu) (V-JEPA) 模型。meta的副總裁兼首席人工智能科學(xué)家Yann LeCun表示:“V-JEPA 是朝著更深入地理解世界邁出的一步,因此機器可以實現(xiàn)更通用的推理和規(guī)劃。”


他于2022年提出了最初的聯(lián)合嵌入預(yù)測架構(gòu) (JEPA)。 “我們的目標(biāo)是建立先進的機器智能,它可以像人類一樣學(xué)習(xí),形成周圍世界的內(nèi)部模型,以便有效地學(xué)習(xí)、適應(yīng)和制定計劃,以完成復(fù)雜的任務(wù)。”


Stability AI發(fā)布Stable Diffusion 3,與Sora同源技術(shù)


2月22日,Stability AI在早期預(yù)覽版中發(fā)布了 Stable Diffusion 3,這是Stability AI最強大的文本到圖像模型,在多主題提示、圖像質(zhì)量和拼寫能力方面的性能得到了極大提高。Stable Diffusion 3模型套件目前的參數(shù)范圍為800M 到8B。


3月5日,Stability AI公布了Stable Diffusion 3的技術(shù)論文,采用了一種新的多模態(tài)DiT(MMDiT,Multimodal Diffusion Transformer)模型架構(gòu),對圖像與語言表示使用單獨的權(quán)重集。


谷歌Gemini文生圖功能緊急關(guān)閉


關(guān)鍵詞:openAI sora 獨角獸 算力 融資 人工智能 芯片    瀏覽量:12999

聲明:凡本網(wǎng)注明"來源:儀商網(wǎng)"的所有作品,版權(quán)均屬于儀商網(wǎng),未經(jīng)本網(wǎng)授權(quán)不得轉(zhuǎn)載、摘編使用。
經(jīng)本網(wǎng)授權(quán)使用,并注明"來源:儀商網(wǎng)"。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責(zé)任。
本網(wǎng)轉(zhuǎn)載并注明自其它來源的作品,歸原版權(quán)所有人所有。目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點或證實其內(nèi)容的真實性,不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如有作品的內(nèi)容、版權(quán)以及其它問題的,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。
本網(wǎng)轉(zhuǎn)載自其它媒體或授權(quán)刊載,如有作品內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。相關(guān)合作、投稿、轉(zhuǎn)載授權(quán)等事宜,請聯(lián)系本網(wǎng)。
QQ:2268148259、3050252122。


讓制造業(yè)不缺測試測量工程師

最新發(fā)布
行業(yè)動態(tài)
行業(yè)聚焦
國際資訊
儀商專題
按分類瀏覽
Copyright ? 2023- 861718.com All rights reserved 版權(quán)所有 ?廣州德祿訊信息科技有限公司
本站轉(zhuǎn)載或引用文章涉及版權(quán)問題請與我們聯(lián)系。電話:020-34224268 傳真: 020-34113782

粵公網(wǎng)安備 44010502000033號

粵ICP備16022018號-4