在大模型(Large Language Model,LLM)快速发展的今天,模型的训练和推理成本日益成为研究和应用的关注焦点。最近,腾讯混元团队发布了一项重要研究,深入探讨了低比特浮点量化训练的 “Scaling Laws”,即浮点数量化训练的规模法则。此项研究的核心在于通过降低模型的精度,探索如何在不损失性能的情况下,显著降低计算和存储成本。
微软研究团队近期发布了一篇长达80页的综述论文,题为《Large Language Model-Brained GUI Agents: A Survey》,深度探讨了大语言模型(LLMs)与图形用户界面(GUI)智能体之间的结合,标志着人机交互领域的一次重要变革。 在过去,传统的GUI自动化工具多依赖于脚本化及规则驱动的方法,但这些方式在应对现代应用环境的复杂性时显得力不从心。微软的综述指出,结合 ...
近日, 中国电信 翼支付针对大模型推理加速的最新研究成果《Falcon: Faster and Parallel Inference of Large Language Models through Enhanced Semi-Autoregressive Drafting and Custom-Designed Decoding Tree》已被 AAAI 2025 接收。