產業消息 nvidia 邊際運算 語言模型 大型語言模型 生成式AI LLM Mistral-NeMo-Minitron 8B NVIDIA推出Mistral-NeMo-Minitron 8B語言模型,僅有80億參數規模但精度不遜120億版本 現在在邊際裝置執行大型語言模型的困難是參數規模,理論上相同技術但參數越大具備更優異的精確度與性能,不過考慮到邊際裝置的運算性能、記憶體等條件,又需要在規模與性能取捨;NVIDIA繼2024年7月攜手Mistral AI公布開源Mistral NeMo 12B模型後,再度推出以其為基礎精簡的Mistral-NeMo-Minitron 8B,雖然參數規模自120億縮減至80億,但精度與性能毫不遜色,足以於NVIDIA RTX技術驅動的工作站執行聊天機器人、虛擬助理、內容生成等應用。 此外,對於希冀在算力與記憶體更有限的設備執行特定功能的邊際運算生成式AI,如智慧手機、機器人、嵌入式平台執行更小規模 Chevelle.fu 8 個月前