AI for DB正悄悄成为一个火热赛道。最显著的特征之一是去年红极一时的向量数据库/向量检索技术,越来越受到AI大模型落地的追捧。
AI for DB,即关注AI为database数据库服务。从用户痛点上,传统的数据库基础设施并不是为AI大模型所设计的,也不是为了满足现如今的向量检索而设计。
例如,企业落地大模型应用,必然需要构建庞大的数据集,只有高质量、高密度的数据去训练模型,才有可能得到更精准的效果。但获取和管理如此庞大的数据通常需要大量资源,包括存储资源、计算能力和数据处理能力。同时,集成具有各类格式、质量、颗粒度、异构的数据源也会使得模型训练过程变得复杂。这也是为什么企业目前对生成式AI仍保持谨慎乐观的原因之一。
钛媒体注意到,从去年开始,在海外市场,头部的数据库/数仓企业,甚至于大模型企业都已经在积极采取产品发布、或进行收购、合作的方式,抢占AI数据库的市场先机。例如,云数仓公司Snowflake宣布将与英伟达合作,为企业量身定制AI模型;Databricks以10亿美金收购Apache Iceberg背后公司Tabular;OpenAI以5亿美金收购拥有向量检索技术的数据库公司Sockset……
不过,从目前来看,AI与数据库的结合思路,也不仅仅是与向量检索相关。过去几年,像自治数据库、数据库自监控自诊断、将低代码+AI引入到text2SQL等等,都是业内企业客户还在探索、尚无定论的方向。
但也有业内人士警示,AI与数据库的结合仍然是个很新的技术方向,也可能存在技术的踏空。
不论AI for DB的趋势,一个首先存在的疑问是:为什么是现在?以及新的解决思路是什么?
简化数据应用和使用
以Oracle为例。
过去两个月,Oracle先后公布对其两款核心数据库管理系统——Oracle Database和MySQL HeatWave数据库进行了AI重塑。单从其数据库名称的变更上就有了明显的指向性:前者由Database 23c直接改为Database 23ai,而后者则升级为了HeatWave GenAI。不同时代版本从“i”互联网、“g”网格、“c”云、“ai”人工智能、“GenAI”生成式AI的变迁,能够反映出Oracle敏锐洞察不同时代下客户诉求的引爆点。其中,Database 23ai正是对上述提及的向量数据库,以及超过300个主要功能进行了升级。
开发人员可以用自然语言与Oracle数据库“对话”,调用生成式AI的能力,生成SQL并执行出最终结果,达到跟数据库对话的目的。
具体来讲,23ai的Vector Search(向量检索)功能,使LLM(大语言模型)可以使用自然语言界面查询私有业务数据,并帮助LLM提供更准确和更相关的结果。客户可以使用Vector Search功能,安全地将文档、图像和其他非结构化数据与私有业务数据结合搜索,而无需移动或复制这些数据。这意味着,可以将AI算法引入到数据所在的位置,而不必将数据迁移到AI算法所在的位置,实现AI在Oracle数据库中的实时运行,大大提高AI的有效性、效率和安全性。
HeatWave GenAI,主要包含数据库内LLM、自动化数据库内向量存储、可扩展向量处理,以及基于非结构化内容进行自然语言上下文对话的功能。使用HeatWave GenAI,开发人员可以使用内置的嵌入模型,通过单个SQL命令为企业非结构化内容创建向量存储。用户可以使用数据库内或外部LLM在单个步骤执行自然语言搜索。数据不必离开数据库,由于HeatWave具备庞大的规模和超高的性能,用户不需要预配GPU。因此,开发人员可以降低应用的复杂性、提高性能、加强数据安全性并降低成本。
不难看出,Oracle的思路是,为AI和数据提供统一操作平台,这与其他数据库产品形成鲜明对比。
例如,数据库内LLM功能使得用户可以执行开发模型和应用程序所需的任务,而无需将数据导出到可能不安全的环境中或将可能不安全的LLM导入其数据环境。由于无需导出或导入,因此不存在通常与导出大量数据或导入大量LLM相关的成本;数据库内向量存储,则让用户无需将数据移动到单独的向量数据库,也不需要具备AI专业知识。
而关于业内关注的向量数据库,钛媒体此前曾分析,如果数据库厂商不单独研发向量数据库,那么基本上会主张支持原生的向量词嵌入和向量搜索引擎。
目前从23ai其实也在通过产品自证:向量检索应该是数据库内置能力,而非独立产品。如果两种类型的数据都由单个数据库管理,那么对业务和语义数据组合的搜索会更容易、更快、更精确。而支撑这一路径的解决方案是,一个可以管理所有数据的数据库,并以高性能和非常经济的方式进行管理。在甲骨文公司副总裁及中国区董事总经理吴承杨看来,“所有数据都应该放在一个地方。这样一来,提问和查询就变得容易多了。”
“今天大多数人的做法是,将数据库的数据拿到AI,再拿出来,往往还会涉及数据安全问题、管理权限问题等等。Oracle的做法是把AI带到数据库,将向量数据库嵌到整个数据库。不光是向量,能够将文本、图、JSON等多种类型数据整合起来的融合数据库,这一点只有Oracle能做到。”吴承杨表示。
甲骨文公司中国区技术咨询部高级总监李珈给钛媒体分享了一则案例:某企业客户从开源向量数据库迁移到了Oracle融合数据库。其背后驱动因素核心有三点:一是应用架构方面,原有应用架构涉及了不同技术栈,且管理复杂度较高,效率低;二是在数据与架构扩展时的性能问题;三是无法与现有业务数据实现集成,检索整体环节的效率往往不高。在李珈看来,做出这样选择的客户越来越多,已不是个例。
“有的客户就是将标签信息放到MongoDB,权限信息、身份信息放到MySQL,知识图谱放到图数据库,然后文档等向量数据存放到向量数据库里,这导致应用整合起来比较难。”李珈表示。
吴承杨指出,迁移这件事情本身并不复杂。关键是,客户需要通过对比去感受,哪种技术方案(融合还是其他)会更加适合自己。客户认为数据很重要,但除了专业的DBA,客户往往对数据库是无感的。今天的数据库,不是讲特别时髦的技术名词,而是通过客户的使用感受去决定数据库应该怎么做。
为此,Oracle还提出了现代数据平台包括“4个Any”,即Anytime,Anywhere,Any Data,Anyone,目标就是将数据的管理、开发到生成,都得到简化。
AI for DB进入下个竞争周期
整体来看,Oracle的AI战略围绕着企业使用AI的实际场景而制定,打造了涵盖整个技术堆栈的端到端生成式AI矩阵。包括基于Oracle Cloud Infrastructure(OCI)的AI基础设施构建支撑,面向AI提供数据的Oracle Database,Oracle Autonomous Database和MySQL HeatWave等数据库产品,以及内嵌生成式AI功能的ERP、HCM和CX等SaaS应用。
不久前的财年财报中,Oracle就释放出一项重要信息:仅在第四季度,Oracle就签订了超过30份AI销售合同,总价值超过125亿美元,其中包括一项重要合作,将微软Azure平台扩展到OCI,支持OpenAI在推理等算力方面的需求。
现在大模型竞争是非常激烈的,近期各家大模型产品迭代的速度正明显加快,这对于模型训练速度就会提出很高的要求。GPU越多、数据集越大、语料库越大,提供的基础设施能力越强,训练时间越短,就越能提高新品更新速度。
“目前Oracle最大的算力集群可达到3万张卡,未来量级可能会更大。”甲骨文公司中国区技术咨询部高级总监嵇小峰指出,OCI从第一天起就致力于提供先进的AI和HPC基础设施,Oracle专门做了网络的优化,构建了一套无损网络体系,让整个GPU的可扩展性变得更加强大。
OCI Supercluster可以实现多个GPU协同工作,同时Oracle即将发布高性能文件系统,可以更好满足客户的训练需求。凭借新的OCI Compute裸机实例、超低延迟RDMA网络和高效能储存,OCI Supercluster的速度将显著加快。OCI将会推出采用NVIDIA B200的机型,最大化帮助企业应对AI模型不断增长的需求。
值得关注的是,2022年,Oracle与英伟达宣布长期合作以来,旨在将英伟达的完整加速计算堆栈引入OCI,如今,OCI已成为英伟达的超大规模云技术提供商,提供大规模的AI计算服务NVIDIA DGX Cloud。
嵇小峰解释道:“尽管现在有了MoE模式,但在推理阶段仍然需要大量算力。Oracle跟英伟达的合作,不同于以往伙伴间的合作,在一些核心服务的落地,两边的产品部门都有深层的合作。”
某种意义上讲,Oracle已经不单纯是一家数据库公司了。近些年在OCI、SaaS等层面的投入,已经让Oracle真正意义上成为像微软、谷歌一样的云计算公司。因而,理解Oracle在数据库层面的投入逻辑,也不能照搬数据库技术产品的限定,更不能站在国产替代的视角去判断Oracle在中国市场的更多打开路径。
目前23ai公有云版本已经推出了,预计在今年下半年会有本地版落地。这意味着中国企业客户使用23ai的门槛也将大大降低。
过去几年,Oracle已经在不断强调,在服务中国出海、跨国公司在中国业务的“双循环”拓展逻辑,Oracle与中国企业客户的合作,也在刷新对用户诉求的理解。
(本文首发于钛媒体APP 作者 | 杨丽,编辑 | 盖虹达