3月17日,联想宣布旗下首款AMD AI大模型训练服务器联想问天WA7785a G3在单机部署671B(满血版)DeepSeek大模型时,可实现极限吞吐量6708token/s,将单台服务器运行大模型的性能推向了新高,...

人工智能大模型如何实现算力低耗能
大模型的爆发式涌现和快速迭代,算力需求已呈现指数级增长。国际数据公司(IDC)与计算力发展评估报告》预测,2023年至2028年,中国智能算力规模将以年复合增长率46.2%的速度扩张,为充分发挥 在智能算力快速增长背...

易倍体育网站:探馆数字中国建设峰会:AI让办公更加智能化
中新网福州4月30日电 (叶秋云)“超融合视频会议平台支持省、市、现场三级平台级联,实现实时数据监控预警、多终端视频调度、画面秒级上墙等功能……”30日,在第八届数字中国建设峰会暨数字中国建设成果展现场,MAXHUB技...

小米AI大模型突破:深度解析7B参数引领行业技术革新
在当前人工智能快速发展的时代,科技巨头纷纷加码深度学习与大模型技术,旨在实现行业的突破性创新。作为智能硬件和生态布局的领军企业,小米近期推出的全新AI大模型,以其“7B参数规模”成为行业焦点,彰显了其在AI技术革新中的...

AI模型成功在43年前的Commodore64电脑上运行
IT之家 5 月 4 日消息,在人工智能领域,各大阵营都在竞相让自己的大语言模型(LLM)能够在尽可能弱、尽可能便宜的硬件上运行。硬件性能越弱,运行大语言模型所需的功耗就越低。然而,有没有想过让一个 AI 模型在 19...