科技應用 yelp 人工智慧技術 Yelp 產品長:AI 徹底改變 Yelp 用戶體驗 包括精準推薦與媒合供需 Yelp 產品長強調 AI 技術對 Yelp 的重要性,讓 Yelp 能更精準地媒合消費者與在地業者,提供個人化推薦。 Yelp產品長Craig Saldanha在接受TechCrunch網站訪談時表示,人工智慧已經改變Yelp的用戶體驗,目前Yelp諸多公告內容都是以人工智慧為核心製作,其中包含藉由人工智慧生成重點摘要,或是以人工智慧媒合消費者及服務業者之間供需。 人工智慧在Yelp中扮演角色 Craig Saldanha表示提到,Yelp的服務核心一直是將消費者與在地業者服務聯繫起來,而此發展理念更是在人工智慧趨勢下獲得強化。 Yelp在過去超過10年間已經針對人工智慧進行大量投資,而近期 Mash Yang 10 個月前
科技應用 JEDEC 固態技術協會 DDR5 MRDIMM LPDDR6 CAMM JEDEC 發布 DDR5 MRDIMM 與 LPDDR6 CAMM 記憶體標準 提升 AI 運算效能 DDR5 MRDIMM 相容 RDIMM 定義,以多列記憶體顆粒和多訊號單一傳輸通道設計,提供高達 12.8 Gbps 的傳輸速率,LPDDR6 CAMM 則基於 LPDDR6 規格,專為輕薄筆電和資料中心設計,傳輸頻寬達 14.4 GT/s。 JEDEC固態技術協會公布DDR5 MRDIMM與LPDDR6 CAMM兩款記憶體模組設計標準,前者將可相容現有RDIMM (Registered DIMM)記憶體模組定義,藉由多列記憶體顆粒與多訊號單一傳輸通道設計,藉此提高資料傳輸頻寬與容量,而後者則是以LPDDR6記憶體規格為基礎,採用CAMM記憶體規格設計,並且讓資料傳輸頻寬可達14.4GT/s Mash Yang 10 個月前
產業消息 JEDEC 記憶體模組 DDR5 MRDIMM LPDDR6 CAMM JEDEC公布DDR5 MRDIMM與LPDDR6 CAMM標準計畫,有助推動高效能運算與AI發展 JEDEC公布DDR5 MRDIMM與LPDDR6 CAMM的標準計畫,希冀透過創新的記憶體模組設計滿足高效能運算與AI需求;其中DDR5 MRDIMM能相容現行的RDIMM定義,但透過多列記憶體顆粒與多訊號單一通道傳輸提高頻寬與容量;此外JEDEC繼完成CAMM2記憶體模組標準化後,也馬不停蹄的為下一代LPDDR6規劃CAMM模組,將實現達14.4GT/s的性能。 DDR5 MRDIMM模組建立在現行RDIMM的針腳定義、記憶體寬度、SPD、PMIC、TS等生態環境,但藉由多列的記憶體排列與多路整合使單一記憶體模組頻寬增加,能夠超越現行DDR5 RDIMM的性能,將使DRAM峰值頻寬達到現行 Chevelle.fu 10 個月前
科技應用 Google Alphabet 人工智慧技術 Google 母公司 Alphabet Q2 財報亮眼 雲端業務首破百億美元 AI 與雲端技術業務表現亮眼,雲端業務營收首度突破 100 億美元。廣告業務仍為主要收入來源,但成長略趨緩。 Google母公司Alphabet稍早公布2024財年第二季財報表現,整體營收達847.42億美元,相比去年同期增加14%,淨利則達236.19億美元,相比去年同期成長29%,創下Alphabet連續四個季度成長幅度均達雙位數的紀錄,其中包含人工智慧技術與雲端技術業務均有顯著成長,後者業務銷售獲利更首度超過100億美元,營利更超過10億美元。 而Alphabet暨Google執行長Sundar Pichai更說明Google的人工智慧技術已經被超過200萬名開發者使用,並且創造超過數十 Mash Yang 10 個月前
科技應用 Google WIZ Wiz 拒絕 Alphabet 230 億美元收購 將推動公開募股 資安新創 Wiz 拒絕 Google 母公司 Alphabet 230 億美元收購提議,將專注於首次公開募股 (IPO),並目標年度經常性收入達到 10 億美元。 先前傳出Google母公司Alphabet計畫以230億美元價格收購資安新創業者Wiz,並且可能會在近期內完成交易的消息,但Wiz後續則決定回絕收購,強調接下來的目標仍會放在公開募股上市。 相關人士引述Wiz執行長Assaf Rappaport於公司內部說法,強調目標將使年度經常性收入 (Annual Recurring Revenue, ARR)增加至10億美元,同時也持續推動公開募股上市。 Wiz創立於2020年1月,總部位於紐 Mash Yang 10 個月前
產業消息 三星 聯發科 LPDDR5X 天璣 9400 三星與聯發科完成10.7Gbps LPDDR5X記憶體與天璣9400的相容性驗證,能耗性能比較現行LPDDR5X提升25% 三星與聯發科共同宣布完成新一代LPDDR5X記憶體與聯發科將在2024年下半年推出的天璣9400平台的驗證,天璣9400將可受惠達10.7Gbps的高性能、提升25%能耗性能比的三星新一代LPDDR5X,提供更出色的續航力與裝置端AI能力。雙方僅在三個月就完成互通驗證,顯示雙方長期密集合作的成果。 ▲三星10.7Gbps LPDDR5X已經完成與天璣9400的相容性驗證 三星在2024年4月宣布新一代LPDDR5X,基於12nm製程,將性能提升至10.7Gbps,相較現行世代提升25%能耗效能比、提高30%容量與25%的性能;隨著聯發科預期在2024年內推出天璣9400,三星10.7Gbps Chevelle.fu 10 個月前
產業消息 WIZ Alphabet Google Cloud Google 母公司 Alphabet 斥資 230 億美元收購資安新創 Wiz Alphabet 計畫以 230 億美元收購資安新創公司 Wiz,協助增強 Google Cloud 的雲端安全技術,並與微軟、亞馬遜競爭雲端服務市場。 Business Insider報導指出,Google母公司Alphabet計畫以230億美元價格收購資安新創業者Wiz,並且可能會在近期內完成交易。 不過,Alphabet與Wiz均未對此作任何回應。 Wiz創立於2020年1月,總部位於紐約,由Assaf Rappaport、Yinon Costica、Roy Reznik與Ami Luttwak共同創立,並且由Assaf Rappaport擔任執行長,其業務主要協助企業確保雲端服務運作安 Mash Yang 10 個月前
產業消息 nvidia gpu NVIDIA Hopper GPT-3 NVIDIA H100 大型語言模型 LLM LLaMA NVIDIA H200 NVIDIA H100最新MLPerf訓練測試基準較2023年以3.2倍GPU規模實現3倍以上的性能 NVIDIA持續引領AI產業硬體的關鍵在於不僅止於GPU硬體技術、還有與持續不斷精進的軟體與網路技術結合;NVIDIA公布最新MLPerf Training v4.0基準測試表現,在GPT-3 175B大型語言模型訓練的表現,以較2023年多出3.2倍的GPU數量實現3倍以上的性能增長,展現強大的軟體調校能使GPU數量與性能呈現幾乎1:1的擴充效率,也顯示在相同的硬體架構之下持續擴充規模仍可在軟體不斷增強獲得出色的成效。NVIDIA預期在NVIDIA Blackwell推出後,MLPerf測試基準成績將有更驚人的成果,並邁向訓練與推論的兆參數生成式AI模型世代。 NVIDIA在2023年使用3 Chevelle.fu 11 個月前
產業消息 COMPUTEX台北國際電腦展 micron 美光 記憶體 JEDEC LPDDR5X LPCAMM2 DDR5 CAMM2 COMPUTEX 2024:美光談積極投入LPCAMM2模組關鍵:LPCAMM2已獲JEDEC標準化 在今年COMPUTEX有多家品牌展示被視為接替DIMM介面的CAMM介面記憶體模組,包括使用DDR5記憶體的DDR5 CAMM2,以及使用LPDDR5X的LPCAMM2;其中美光的LPCAMM2已經獲得聯想採用且後續將在零售市場推出,筆者也就兩種CAMM模組的現況詢問美光工作人員,美光會先押LPCAMM2模組的關鍵不僅在於市場有需求,更重要的是獲得JEDEC協會認可已經標準化。 ▲美光表示力挺LPCAMM2的關鍵之一是此模組已經獲得JEDEC標準化 美光指出他們同樣看到DDR5 CAMM2的市場潛力,然而相對在LPCAMM推出前皆為板載焊死的LPDDR5記憶體,由於傳統DIMM模組已經行之有年 Chevelle.fu 12 個月前
產業消息 micron dram 美光 記憶體 GDDR6 LPDDR5X PCIe Gen 4 SSD GDDR6X GDDR7 PCIe Gen 5 SSD AI PC COMPUTEX 2024:美光因應AI PC世代自GDDR、LPDDR與SSD提供完整高效能產品布局 Micron美光在COMPUTEX 2024期間除了宣布GDDR7已經送樣,也宣示美光在AI PC有完整的儲存產品布局;美光指出固然透過NPU執行生成式AI是AI PC當前最火熱探討的布局,不過當前在AI PC所執行的AI任務也不僅限於生成式AI,在不同的AI運算自然也會使用不同階層的儲存技術,自進行重度AI負載的GGDDR,通用AI運算的DRAM一直到高效能儲存等都有不同的需求。 ▲美光為AI PC提供自GDDR、DRAM至SSD等完善的高效能、可靠解決方案 ▲美光也率先推出基於LPDDR5X的LPCAMM2模組,同時已獲得聯想採用 美光也為迎接AI PC世代提供完整的布局,於GPU的GDD Chevelle.fu 12 個月前