Google發表更強模型迎戰OpenAI 提到AI共121次
發表於 2024-05-15 06:27 作者: 區塊鏈情報速遞pro
(中央社記者吳家豪舊金山14日電)Google今天在I/O年度開發者大會發表性能更強人工智慧模型Gemini 1.5 Pro、輕量模型Gemini 1.5 Flash,會中提到AI共121次強調其重要性,並試圖於AI市場與OpenAI公司較勁。
搶在Google I/O大會前夕,美國新創公司OpenAI於13日推出更高性能、更高效人工智慧(AI)技術模式GPT-4o,能進行逼真的語音對話,將鞏固旗下生成式工具ChatGPT地位,而且對所有使用者免費。
面對OpenAI來勢洶洶,Google今天於美國加州山景城總部海岸線圓形劇場舉辦I/O開發者大會,以AI為核心發表新技術與服務,現場活動僅邀請全球部分開發者及媒體參與,中央社記者為台灣少數媒體代表之一。
隨著開場音樂響起,Google執行長皮查伊(Sundar Pichai)緩緩走上台表示,「我們還在AI非常早期的階段」,現在看到這麼多機會,推動這些機會的正是Gemini。目前有超過150萬名開發者,在Google平台上使用Gemini模型。
皮查伊說,Gemini 1.5 Pro模型從一次可處理100萬個詞元脈絡長度,將擴增到200萬個,是目前為止可提供最長脈絡處理的基礎模型。現在開發者和Google Cloud的客戶可加入等候名單,使用200萬個詞元脈絡長度的Gemini 1.5 Pro。
從實際應用來看,Gemini 1.5 Pro可以讀懂1500頁的文件、為100封電子郵件摘要,或處理長達1小時的影片內容。
為滿足開發者需要更快速、更具成本效益的AI模型,Google DeepMind執行長哈薩比斯(Demis Hassabis)宣布推出輕量模型Gemini 1.5 Flash,特別針對大規模、高頻率的任務進行最佳化。
哈薩比斯也公布Astra計畫的最新進展,讓AI助理即時分析手機拍攝的畫面,提供語音回答,展現AI助理未來的可能性。
現場播放的一段示範影片中,測試人員拿著手機開啟可以即時錄影與收音的App,Gemini會辨識並回答看到的揚聲器功能、分析電腦螢幕上顯示的程式碼用途;甚至測試人員忘記眼鏡放在哪裡時,Gemini也記得正確位置,引起觀眾熱烈掌聲。
在主題演講最後,皮查伊笑說,今天光是AI這個字就被提到121次,也意味著AI已經成為Google發展技術的核心。
此外,Google也透過專門為Google搜尋量身打造的全新Gemini模型,能夠將Gemini的先進能力,像是多步驟推理、規劃和多模態等特性,與Google的搜尋系統進一步整合。
有時候用戶只想快速找到答案,但沒有時間看網路上的大量資訊,Google的AI總覽功能就可以派上用場。目前使用者已經透過Search Labs推出的實驗功能來使用AI總覽,次數已經高達數十億次。
Google宣布從今天開始將率先在美國推出AI總覽,並於日後支援更多國家。從本週起,將有數億使用者可以進一步體驗AI總覽,Google也預計於今年底前讓超過10億的使用者能夠使用這項新功能。(編輯:陳彥鈞)1130515
-
Google發表更強模型迎戰OpenAI 提到AI共121次2024/05/15 06:27
-
2024/05/14 20:00
-
2024/05/14 09:20
標題:Google發表更強模型迎戰OpenAI 提到AI共121次
地址:https://www.coinsdeep.com/article/123959.html
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。