探索财经奥秘,指引财富未来

英伟达震撼宣布:处理速度提升惊人,从数周缩短至分钟级!

admin 2024-06-03 08:13:00
NVIDIA 推出了全新的突破,NVIDIA NIM(Nvidia Inference Microservices)已经面向全球2800万开发者开放,使他们在云端、数据中心或个人工作站上轻松构建诸如Copilot和ChatGPT等生成式AI应用。NVIDIA NIM作为一款优化的云原生微服务,缩短了模型部署时间,以前可能需要数周,现在只需几分钟。这款产品旨在简化企业级AI服务部署,NVIDIA官网已上线,可供下载和使用。
英伟达创始人兼CEO黄仁勋在Computex上还宣布,新一代AI芯片Blackwell已经开始生产,预计2025年会推出Blackwell Ultra AI芯片。此外,代号为Rubin的下一代AI平台还在研发中,预计于2026年发布,将采用HBM4内存技术。Blackwell被视为英伟达业绩增长的重要驱动力,黄仁勋在财报电话会议中确认,Blackwell芯片将在第二季度开始发货,并在第三季度增加产量。
NVIDIA NIM集成到众多平台,帮助不具备专门AI团队的企业也能轻松引入生成式AI。NVIDIA NIM提供标准化方式,加速开发者工作,目前已支持40多个模型,如Databricks DBRX、Google的Gemma等。开发者可从Hugging Face访问Meta Llama 3模型的NVIDIA NIM服务,用于文本、图像、视频、语音和虚拟助手等领域。
英伟达与众多AI生态系统伙伴紧密合作,包括富士康、劳氏和西门子等,它们在制造、医疗、金融、零售和客服等领域运用NIM进行生成式AI应用。比如,富士康用NIM开发领域特定的大语言模型,提升智能制造;劳氏利用NIM提升员工和客户体验;西门子则将其运营技术与NIM结合,优化车间AI任务。
英伟达在医疗保健领域也活跃,已有数十家公司使用NIM支持手术规划、药物发现和临床试验等AI推理应用。作为芯片巨头,英伟达积极投资医药生物领域,自2023年以来已投资9家生物初创公司,累计金额达到215亿美元。
分析师认为,NVIDIA NIM的推出降低了AI模型的部署成本,有助于吸引更多用户购买服务器和企业版服务,同时强调了在笔记本电脑上运行AI的便捷性。然而,这可能会与云服务商的部分业务产生重叠。Blackwell芯片的生产进展顺利,预示着万亿参数级AI的广泛应用和业绩增长的潜力。
总之,英伟达近期在AI技术和硬件上的多项举措,如NVIDIA NIM和Blackwell芯片,展现了其在人工智能领域的强大实力和对未来市场的深远布局。随着这些新产品的推出和应用扩大,英伟达有望继续保持其行业领先地位。