通信世界网消息(CWW)9月19日,阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭在2024云栖大会上发表主题演讲。他认为,过去22个月,AI发展的速度超过任何历史时期,但我们依然还处于AGI变革的早期。
大模型技术快速迭代,技术可用性大幅提升。大模型已经具备了文本、语音、视觉的多模态能力,能够开始完成复杂指令。吴泳铭说道,“去年,大模型还只能帮助程序员写简单的代码,今天已经能直接理解需求,完成复杂的编程任务。去年,大模型的数学能力还只有中学生水平,今天已达到国际奥赛金牌水平,并在物理、化学、生物等多方面学科接近博士水平。”
同时,模型推理成本指数级下降,已经远远超过摩尔定律。一年来,通义千问API在阿里云百炼上的调用价格下降了97%,百万Tokens调用花费最低已经降到了5毛钱。吴泳铭称,推理成本是应用爆发的关键问题,阿里云会努力把成本继续降下去。
开源生态蓬勃发展。今年6月,通义千问开源Qwen2,迅速登顶Huggingface的全球开源模型排行榜。在Huggingface上,Qwen的原生和衍生模型接近5万个,排名全球第二。阿里云魔搭社区上有超过1万个模型、服务了超过690万开发者。
在吴泳铭看来,这一切才刚刚开始,要实现真正的AGI,下一代模型需要具备更大规模、更通用、更泛化的知识体系,同时也将具备更复杂更多层次的逻辑推理能力。全世界先进模型竞争的投入门槛,将达到数十亿、数百亿美金的级别。AI具备创造能力、帮助人类解决复杂问题的路径清晰可见,也打开了AI在各行业场景中广泛应用的可能性。
此外,吴泳铭还提出“AI计算正在加速演进,成为计算体系的主导”的观点。“无论是端侧的计算,还是云端的世界,这一趋势非常明显。”吴泳铭谈到。生成式AI对数字世界和物理世界的重构,将带来计算架构的根本性变化。过去几十年,CPU主导的计算体系,正在加速向GPU主导的AI计算体系转移。未来几乎所有的软硬件都会具备推理能力,它们的计算内核将变成GPU AI算力为主、CPU传统计算为辅的计算模式。
在新增算力市场上,超过50%的新需求由AI驱动产生,AI算力需求已经占据主流地位。这一趋势还会持续扩大。吴泳铭提到,过去一年,阿里云投资新建了大量的AI算力,但还是远远不能满足客户的旺盛需求。很多行业几乎都在用AI重构自己的产品。大量新增需求正在由GPU算力驱动,大量存量应用也在用GPU重新改写。在汽车、生物医药、工业仿真、气象预测、教育、企业软件、移动APP、游戏等行业,AI计算正在加速渗透。在各行各业,看不见的新产业革命正在悄然演进。
所有行业,都需要性能更强、规模更大、更适应AI需求的基础设施。吴泳铭表示,阿里云正在以前所未有的强度投入AI技术研发和基础设施建设。我们的单网络集群已拓展至十万卡级别,正在从芯片、服务器、网络、存储到散热、供电、数据中心等方方面面,重新打造面向未来的AI先进基础设施。
免责声明:文章内容来自互联网,版权归原作者所有,本站仅提供信息存储空间服务,真实性请自行鉴别,本站不承担任何责任,如有侵权等情况,请与本站联系删除。
转载请注明出处:阿里CEO吴泳铭:AI发展的速度超过任何时期,但依然还处于AGI变革早期-阿里吴某 https://www.liekang.com/50037.html
版权声明:本文内容由作者小航提供,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至907991599@qq.com 举报,一经查实,本站将立刻删除。如若转载,请注明出处:https://www.hangzai.com/23402.html