找回密碼註冊
作者: sxs112.tw
查看: 4100
回復: 0

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

SUP-01 玩家開箱體驗分享活動

SUP-01緊湊佈局,“直”而強大(Compact Power, Redefined Layout) ...

Micron Crucial T705 Gen5 SSD 玩家開箱體

挑戰極限 再創顛峰無懼的速度正等著您 我們最快的變得更快了無懼的速 ...

A3-mATX 玩家開箱體驗分享活動

[*]簡約時尚設計 26.3L 微型機箱 [*]側板和頂板採用鋼網設計 [*]可 ...

PURE WINGS 3 玩家開箱體驗分享活動

PURE WINGS 3卓越效能,安靜散熱 Pure Wings 3 是 be quiet! 的主流 ...

打印 上一主題 下一主題

[處理器 主機板] 蘋果正在探索在快閃記憶體上儲存LLM,以便將該技術無縫導入手機、筆記型電腦

[複製鏈接]| 回復
跳轉到指定樓層
1#
sxs112.tw 發表於 2023-12-22 15:37:09 | 只看該作者 |只看大圖 回帖獎勵 |倒序瀏覽 |閱讀模式
大型語言模型 (LLM) 對CPU和記憶體的資源極為密集,但據說蘋果正在嘗試將這項技術儲存在快閃記憶體上,可能會使其在多個裝置上輕鬆存取。然而這家科技龍頭也希望讓LLM在其 iPhone和Mac系列中無處不在,並正在探索實現這一目標的方法。

在典型情況下大型語言模型需要人工智慧加速器和高DRAM儲存容量。根據TechPowerUp報導蘋果正在努力將相同的技術導入記憶體容量有限的設備中。在一篇新發表的論文中,蘋果發表了一篇論文旨在將LLM導入記憶體容量有限的裝置。iPhone的記憶體也有限,因此蘋果研究人員開發了一種使用快閃記憶體晶片來儲存人工智慧模型資料的技術。
M3-Max.jpg

由於蘋果的iPhone和Mac電腦上有大量快閃記憶體,因此有一種方法可以透過一種稱為視窗化的技術來繞過此限制。在這種方法中AI模型重複使用了一些已經處理過的數據,減少了對連續記憶體獲取的需求,並使整個過程更快。第二種技術是行列捆綁;數據可以更有效地分組,使人工智慧模型能夠更快地從快閃記憶體讀取資料並加快其理解能力。

這兩種技術和其他方法都將允許AI模型運行高達iPhone可用RAM大小的兩倍,從而使標準處理器上的速度提高多達5倍,在顯示處理器上提高多達25倍。有大量證據表明蘋果對人工智慧很認真,首先是它自己的聊天機器人,內部稱為Apple GPT。據傳明年的iPhone 16還將配備升級的麥克風,這對該公司來說成本高昂,但可以改進語音輸入,這對於Siri執行多項任務是必要的。

還有傳言稱某種形式的生成式人工智慧將在明年正式發佈時融入iOS 18中,因此儘管蘋果一直落後於OpenAI、Google、Amazon等公司,但這種差距到2024年可能會大幅縮小。將這項技術導入記憶體有限的iPhone、iPad和Mac可能會為這些設備帶來獨特的賣點,但我們必須首先看看存儲在快閃記憶體上的LLM的表現如何。

消息來源
您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2024-6-1 17:41 , Processed in 0.090539 second(s), 33 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表