随着印度加快建立本土大语模型(LLM)的努力,出现了一个关键的问题:计算基础架构是否为支持AI的工作量提供了准备?毕竟,培训大型AI模型需要大量的处理能力,这是美国和中国目前以其先进的超级计算基础设施领导的领域。
数据质量呢?尽管印度产生了巨大的数据,但其中大部分是非结构化的,需要广泛的清洁和组织才能对AI培训有用。研究和资金也仍然是关键的障碍。行业专家指出,尽管人才基础迅速增长,但印度需要持续的投资,更好的行业 – 基于良好的协作以及正在进行的AI研究计划,以帮助推动创新的界限。
可以肯定的是,Iniaai Compute能力,Indiaai Innovation Center,Indiaai DataSets Platform和AI-LED技能开发等计划的10,370千万印度特派团的多管齐下方法将为可扩展,负责任的AI增长提供基础。 Yotta Data Services的联合创始人,首席执行官兼医学博士Sunil Gupta表示:“将主权人工智能基础设施(包括数据中心和半导体增长)进行优先考虑,将增强印度的自力更生。”他认为AI优化的基础设施不再是可选的 – 这是必要的。为了满足不断增长的需求,数据中心必须投资于高性能计算(HPC),专门的GPU(图形处理单元)簇和有效的冷却技术,以支持大规模的AI培训和推断。
“人工智能工作负载需求较高的正常运行时间,可扩展数据中心和云基础架构,能够支持高度存储和高性能计算。随着AI采用在整个行业的加速,对AI-Ready基础设施的需求正在成倍增长。” Gupta说。在他看来,印度特派团通过采用战略性,市场驱动的方法来在建立印度的AI基础设施中发挥关键作用。该计划没有直接投资于数据中心并管理GPU运营,而是使服务提供商行业承担风险并投资于高性能GPU。然后,这些提供商在云模型上提供基于GPU的AI服务,从而确保可伸缩性和操作效率。
Avaali创始人兼首席执行官Srividya Kannan表示,AI培训,尤其是对于大型模型,需要广泛的计算能力,高容量的GPU和能源效率。尽管一些印度数据中心配备了现代基础架构,但尚未针对AI工作负载进行广泛优化,这些工作负载需要专门的硬件,例如NVIDIA A100 GPU或TPU(张量处理单元)。
AI硬件不仅是计算密集型,而且是能源密集型的。数据中心必须提高能源效率并采用可持续的实践,尤其是在气候意识时代。 “大规模的AI培训通常涉及处理大量数据集。数据中心需要增强其存储能力和互连性,以满足这些要求。”坎南强调。
CTRLS数据中心创始人兼首席执行官Sridhar Pinnapureddy表示,要赶上全球GPU竞赛,印度必须优先考虑强大的GPU生态系统的发展。这包括扩大对GPU资源的访问,通过最先进的GPU扩展数据中心,以及促进全球GPU制造商与本地科技公司之间的合作。此外,印度需要改善其对根据AI工作量量身定制的GPU体系结构的研究。这将需要在硬件设计和AI应用程序上进行投资。
“为了真正满足AI的需求,数据中心需要通过集成AI优化的硬件来发展。其中包括专门的GPU,FPGA(现场可编程门数组)以及旨在加快模型训练和推理的其他加速器。此外,数据中心必须解决功率效率,冷却和带宽等问题,这对于大规模运行复杂的AI模型至关重要。” Pinnapureddy说。
此外,数据中心需要强大的框架来保护敏感的数据和专有的AI模型,需要先进的物理安全措施和与全球标准保持一致的复杂网络安全协议。 Pinnapureddy认为,考虑到印度的数据本地化政策,这在市场上创造了新的动态,这一点尤其重要。
首席执行官莎拉德·阿加瓦尔(Sharad Agarwal)Sify Infinit Spaces表示,土著AI开发需要在AI-Ready基础设施,半导体设计,AI硬件,芯片制造等多个领域进行强大的人才管道。印度是人才资本。但是,破坏性的创新需要更好的人才管理和以研究为导向的教育。学术界和行业将需要合作以发展机会。”他说。
根据Agarwal的说法,未来准备就绪的数据中心必须集成AI特异性的加速器,以应对深度学习和生成AI应用的不断增长的需求。全面的政府推动力的催化剂之一将是在数据中心以多种形式采用100%可再生能源,包括太阳能,风和小型模块化核反应堆。政府政策还将有助于为行政批准,电力走廊,网络走廊,可再生能源利用率提供明确的时限路线图。
今日印度正处于全球AI RERVICENCES地图上的一个拐点。一位自信的Agarwal总结说:“目前,目前希望在印度投资数据中心美元,以及合适的基础设施,政策支持和人才发展的结合,它有可能成为全球AI强国的潜力。”