蘋果又一項突破,推出新的人工智慧模型,可以使用自然語言指令操縱圖像
蘋果在許多方面都落後於ChatGPT和Google的Gemini。然而該公司在人工智慧方面投入了大量資金,因為它的目標是隨著iOS 18的發布,在今年稍後將該技術導入iPhone 16 系列。據報導蘋果研究人員已經發布了一種新的人工智慧模型,可以採用使用者的自然語言命令。該技術可能會在該公司6月的WWDC 2024活動上展示。Apple的新AI模型稱為MGIE或MLLM引導影像編輯,是一種多模態大型語言模型,可在像素層級解釋和執行使用者命令(來自VentureBeat)。該工具可以操縱和編輯影像的多個區域,包括亮度、清晰度、對比度等等。它還可以操縱圖像以添加藝術效果。
除此之外本地編輯可以改變照片中主體的形狀、顏色、大小和紋理。類似Photoshop的編輯包括調整影像大小或裁剪、旋轉和添加濾鏡。用戶還可以更改圖像的背景。蘋果的新人工智慧模型能夠理解上下文和常見推理。例如您可以添加披薩的圖像和提示以使其更健康。 AI模型會自動將蔬菜添加到圖像中,以了解健康與食物中的蔬菜相關。
使用全域最佳化請求,該工具可以操縱影像的照明和對比度。此外類似Photoshop的編輯還可以根據使用者的要求從背景中消除物件。您可以在下面新增的圖像中看到蘋果的人工智慧模型的運作情況。該公司已與加州大學研究人員合作打造MGIE,一旦技術準備就緒,該公司將為其設備打造各種應用程式。該論文已在2024年國際學習表徵會議 (ICLR) 上發表。
如果您有興趣查看AI模型,可以在GitHub上取得預先訓練模型的程式碼和資料。蘋果在人工智慧方面已經投入了很長一段時間,儘管起步較晚,但其功能可能與行業有所不同。去年12月該公司發明了快閃記憶體利用技術,允許大型語言模型在iPhone和其他蘋果產品上運作。
蘋果將在今年稍後宣布一些人工智慧功能,可能會在WWDC 2024活動上與iOS 18和其他軟體更新一起發布。先前有報導提到蘋果將在今年稍後推出新iPhone機型時使用生成式人工智慧功能。 iOS 18將使用人工智慧來增強Siri的效能,因為它目前落後於Google Assistant和Amazon的Alexa等。
消息來源
頁:
[1]