就在刚刚,云揣测一哥亚马逊云科技九玩游戏中心官网,在大模子这件事儿上搞了波大的——
亚马逊 CEO Andy Jassy躬行站台re:Invent24,发布自家新款 AI 多模态系列大模子,名曰Amazon Nova。
而且是连气儿涵盖文本对话、图片生成、视频生成,致使奏凯吐露一个小观念:
昔日咱们不仅要Speech to Speech,更要Any-to-Any!
举座而言,Amazon Nova 系列中的统统模子,均以功能和尺寸来折柳。
先来看下新版顶端基础大模子的"文本对话篇",一共包含四个杯型:
Amazon Nova Micro:仅限文本对话,主打一个廉价钱和低延长;
Amazon Nova Lite:低资本的多模态大模子,处理图像、视频和文本输入的速率极快。
Amazon Nova Pro:高性能的多模态大模子,精度、速率和资本最好"配方",可处理平凡的任务。
Amazon Nova Premier:亚马逊最强多模态大模子,可处理复杂的推理任务,也可用于蒸馏客户定制化的模子。
在现场,Andy 也晒出了 Amazon Nova 在 CRAG、BFCL、VisualWebBench 和 Mind2Web 等Benchmarks上获得的分数。
从得益中不出丑出,其在检索增强生成(RAG)、函数调用和智能体应用方面具有较好的性能。
据悉,前三者也曾上架亚马逊云科技的"模子工场"Amazon Bedrock,而 Premier 版块则将于 2025 年第一季度推出。
咫尺也有一些实测也曾流出,举例给 Amazon Nova Pro 一句 Prompt:
Write a summary of this doc in 100 words. Then, build a decision tree.
写一篇 100 字的选录。然后,构建一个决策树。
啪的一下,阻挡就出来了:
再如让 Amazon Nova Pro 意会底下这个淹没在一皆的视频:
它给出的谜底是:
The video begins with a view of a rocky shore on the ocean, and then transitions to a close-up of a large seashell resting on a sandy beach.
视频一启动是海洋上的岩石海岸,然后过渡到一个大贝壳躺在沙滩上的特写。
接下来,就是"非文本生成篇",一共包括两款。
Amazon Nova Canvas,主打的是图像生成,用官方的话来说,是达到了" State-of-the-art "(起头进)的水平:
至于视频生成模子,名叫Amazon Nova Reel,给定一张图片和一句话,即可让它动起来:
而接下来 Andy 的一番话,奏凯让现场不淡定了。
正如咱们刚才提到的,Andy 也曾放出了话,Amazon Nova 行将呈现出来的态势是万物皆可生成。
值得细细回味的少许是,亚马逊云科技在生成式 AI 期间中,先前发布自研大模子并不算最吸睛的那一批。
天然此前也发布过 Amazon Titan 大模子,但模态上也仅限于文本,更多的元气心灵如故聚焦在了像 Amazon Bedrock、Amazon Q 这么的平台和应用。
而这次,亚马逊云科技却一反常态,以动须相应之势把主流模态全面消除,致使一句" Any-to-Any "彰显其洪志。
为何会如斯?
纵不雅整场发布会,透过亚马逊云科技 CEO Matt Garman 的全程先容,大致不错把谜底总结为——
实力是一直有的,仅仅咫尺客户有需求了。
Matt Garman 初次以 CEO 身份干涉 re:Invent
这又该怎么意会?咱们链接往下看。
算力再升级,价钱很鲜艳
先看实力。
手脚云揣测一哥,算力是亚马逊云科技的看家才能之一。
与传统云干事厂商不同,其自主研发并优化的专用芯片和数据中心,包括 Graviton 和 Nitro 等特有干事器主机,为及时揣测提供撑合手。
而这一次,从芯片到干事器,基础设施上一系列的更新动作,不错分为三大板块来看——
揣测(Compute)、存储(Storage)和数据库(Database)。
在揣测层面上,亚马逊云科技先是晓谕Amazon EC2 Trn2 实例厚爱可用。
EC2 Trn2 实例接收了第二代 Trainium 芯片(Trainium2),与上一代 Trn1 实例比拟,性能提高权贵。具体来说:
提醒速率提高 4 倍:这一性能提高能灵验减少模子提醒所需时分,加速企业应用落地;
内存带宽提高 4 倍:更强的数据传输才能不错餍足复杂模子对及时数据处理的高条目;
内存容量提高 3 倍:为高参数目模子的运行提供了充足的揣测资源。
此外,Trn2 实例在性价比上比刻下基于 GPU 的 EC2 P5e 和 P5en 实例卓绝30-40%。
每个 Trn2 实例包含 16 个 Trainium2 芯片,192 vCPUs,2 TiB 的内存,以及 3.2 Tbps 的 Elastic Fabric Adapter ( EFA ) v3 汇集带宽,这比上一代造谣了高达 35% 的延长。
针对更高性能需求,亚马逊云科技同期推出了Trn2 UltraServer。
这是一种全新的超大范围揣测居品,每台 UltraServer 包含 64 个 Trainium2 芯片,并通过高带宽、低延长的 NeuronLink互连完了了超卓的性能。
这使得 Trn2 UltraServer 成为提醒超大范围基础模子(如生成式 AI、LLM 等)的理思遴选。
NeuronLink 是亚马逊云科技特有的汇集互连时刻,它能够将多台 Trainium 干事器组合成一个逻辑上的单一干事器,团结带宽可达 2TB/s 的带宽,而延长仅为 1 微秒。
它的联想稀奇适应散播式深度学习任务,在汇集通讯上的优化有助于权贵裁汰提醒时分,提高资源诳骗率。
用官方的话来说就是:
这恰是提醒万亿级参数的大型东谈主工智能模子所需要的超等揣测平台,非常高大。
在现场,苹果也来为亚马逊站台,机器学习和东谈主工智能高档总监 Benoit Dupin 暗示:
苹果将使用亚马逊云科技的 Trainium2 芯片。
除此除外,在芯片层面上,亚马逊云科技发布了AWS Trainium3 芯片预览版,预测于 2025 年厚爱推出。
据悉,Trainium3 将接收 3 纳米工艺制造,提供两倍于 Trainium2 的揣测才能,并提高 40% 的能效。
在揣测(Compute)之后,就是存储(Storage)上的更新。
咱们都知谈,在数据分析和大数据鸿沟,处理和查询大范围数据集的才能至关重要。
而传统的数据查询方法在处理海量数据时,时常导致性能瓶颈和经管复杂性,影响了企业的数据驱动决策才能。
为此,亚马逊云科技特意推出了Amazon S3 Tables。
Amazon S3 Tables 提供了一种新的存储方式,专为表格数据联想,撑合手使用 Amazon Athena、Amazon EMR 和 Apache Spark 等流行的查询引擎进行粗略查询。
S3 的表存储桶是它的第三种存储桶类型,与现存的通用存储桶和目次存储桶并排;不错将表存储桶视为一个分析仓库,用于存储具有不同模式的 Iceberg 表格。
与自经管的表格存储比拟,S3 Tables 不错完了高达 3 倍的查询性能提高和10 倍的每秒事务处理才能,同期提供全托管干事的操犯罪果。
除此除外,元数据(Metadata)也变得越发重要,举例电话内部有许多像片,恰是因为通过元数据储存数据,咫尺不错完了用天然谈话很快找到这张像片。
基于这么的需求,亚马逊云科技推出了Amazon S3 Metadata 的预览版。
Amazon S3 Metadata 提供了一种自动化、易于查询的元数据经管方式,这些元数据险些及时更新,匡助用户整理、识别和使用 S3 数据进行业务分析、及时推理当用等。
它撑合手对象元数据,包括系统界说的详肯定息(如大小和对象来源)以及自界说元数据,允许用户使用标签为对象添加居品 SKU、交游 ID 或实质评级等信息。
而这些元数据相似也存储在 S3 Tables 之中。
在揣测、存储之后,就是基础设施的第三大板块——数据库(Database)。
有敬爱的少许是,Matt 在现场共享了一张" OR "如故" AND "的图,暗示企业在遴选数据库时无数遭逢的高深抉择——跨区域一致、高可用性、低延长,时常只可 3 选 2。
而亚马逊云科技这次给出的答卷是,都不错有。
这就是新式无干事器散播式数据库Amazon Aurora DSQL,旨在措置传统数据库在膨大性和性能方面的挑战。
Aurora DSQL 结合了传统关所有据库的强一致性和 NoSQL 数据库的散播式膨大才能,提供了以下几个要害上风:
跨区域强一致性和低延长:接收了全新的架构,使其能够在多个地舆区域中同期运行,而保合手强一致性。
无尽膨大:能够处理数 TB 到数 PB 级的数据集,适用于任何范围的企业。
超高可用性:提供 99.999% 的可用性,这对于许多需要高可用性和无缝运行的企业级应用至关重要。
性能优厚:其跨区域的读写操作比 Spanner 快了四倍。
以上就是亚马逊云科技这次在基础设施上的发力了。
新的积木——推理
如果说把基础设施的三大板块视为三块积木,那么接下来,亚马逊云科技在模子层和应用层方面添加了第四块积木——推理(Inference)。
推理是生成式 AI 职责流的中枢,它指的是将也曾提醒好的模子应用到新数据上,进行预测、生成或推断。
Matt 在会上强调:
推理在 AI 模子的应用中变得尤为重要,尤其是在处理像大型谈话模子等复杂模子时,推理条目极高的揣测才能和低延长反应。
而 Amazon Bedrock 手脚亚马逊云科技在模子层的一项 AI 平台干事,先是与咱们上述的基础设施在推理上保合手了同步。
换言之,Inferentia 和 Trainium 芯片提供的推理的硬件优化,用户不错通过 Amazon Bedrock 方便拜访这些资源。
而至于 Amazon Bedrock 自身,这次也迎来多项才能的升级。
率先就是模子蒸馏(Model Distillation),能够自动化创建针对特定用例的蒸馏模子。
主淌若通过从大型基础模子(教师模子)生成反应,并使用这些反应来微调较小的基础模子(学生模子),从而完了常识转动,提高小模子的精准度,同期造谣延长和资本。
其次是多智能体互助(multi-agent collaboration)。
在需要多个智能体处理复杂任务的场景中,经管这些智能体变得具有挑战性,尤其是跟着任务复杂性的增多。
使用开源措置有缱绻的开发者可能会发现我方需要手动完了智能体编排、会话处理、内存经管等复杂操作。
这也恰是亚马逊云科技在 Amazon Bedrock 上推出多智能体互助的起点。具体特色如下:
快速开垦:无需复杂编码,几分钟内创建、部署和经管协同职责的 AI 智能体。
可组合性:将现存智能体手脚子智能体集成到更大的智能体系统中,使它们能够无缝互助以玩忽复杂的职责经由。
高效的智能体间通讯:监督智能体不错使用一致的接口与子智能体进行交互,撑合手并行通讯以更高效地完成任务。
优化的互助模式:在监督模式和监督加路由模式之间遴选。在路由模式下,监督智能体将奏凯将简便恳求路由到相干的子智能体,绕过完满的编排。
临了,亦然更为重要的少许,就是防备大型谈话模子幻觉导致的事实无理的功能——自动推理检查(Automated Reasoning checks),这是 Amazon Bedrock Guardrails 中新增的一项功能。
这种新的驻防步调,旨在通过数学考证来确保 LLMs 生成的反应的准确性,并防备幻觉导致的事实无理。
自动推理检查使用基于数学和逻辑的算法考证和推理过程来考证模子生成的信息,确保输出与已知县实一致,而不是基于虚构或不一致的数据。
与机器学习(ML)不同,自动推理提供了对于系统举止的数学保证。
据悉,亚马逊云科技也曾在存储、汇集、杜撰化、身份和密码学等要害干事鸿沟使用自动推理,举例,自动推理用于厚爱考证密码完了的正确性,提高性能和开发速率。
在性能方面,Bedrock 还推出了低延长优化推理,由此,用户不错在使用起头进的大模子基础上,还享受超卓的推感性能。
值得一提的是,Llama 405B 和 Llama 70B 低延长优化版块,在亚马逊云科技上展现出超越其他云提供商的出色透露。
还有应用层和其它更新
针对开发者和企业,亚马逊云科技在应用层上的代表作就是 Amazon Q 了。
针对越来越多的企业寻求从土产货数据中心搬动到云的痛点,亚马逊云科技在 Amazon Q Developer 上推出了多项新功能。
其中较为引东谈主瞩观念就是Transformation for Windows .NET Applications,这项功能使得企业能够更快速地将 .NET 应用款式搬动到 AWS,同期还能够权贵造谣搬动资本。
Amazon Q 为 .NET 应用款式提供了自动化搬动器用,能够识别应用款式中可能存在的不兼容问题,生成搬动筹谋,而且自动调节源代码,确保平滑过渡到云霄。这种自动化搬动大幅提高了工犯罪果,减少了东谈主为热闹。
通过将应用款式从 Windows 搬动到 Linux,企业能够省俭崇高的 Windows 许可用度,造谣 TCO(总领有资本)。
Matt 指出,使用 Amazon Q 的企业能够省俭多达 40% 的许可资本。
而且搬动速率比传统手动搬动快了四倍,大大减少了系统搬动的停机时分和风险。
除了 Windows 应用的搬动,亚马逊云科技还推出了 Amazon Q Developer Transformation for VMware Workloads功能,专为运行在 VMware 上的企业职责负载联想。
通过这一器用,亚马逊云科技不错匡助企业将土产货的 VMware 环境搬动到云平台。
应用层除外,还有诸如将 AI 和分析作念结合的居品—— Amazon SageMaker。
它手脚一个不错帮企业加速 AI 应用的开发、提醒和部署的数据科学平台,今天也厚爱步入了"下一代"。
新一代 SageMaker 的中枢是SageMaker Unified Studio。
这是一个单一的数据和 AI 开发环境,它整合了 Amazon Athena、Amazon EMR、AWS Glue、Amazon Redshift、Amazon Managed Workflows for Apache Airflow ( MWAA ) 以及现存的 SageMaker Studio 中的器用和功能。
其次是Amazon SageMaker Lakehouse,不错和洽 Amazon S3 数据湖、Amazon Redshift 数据仓库和第三方及纠合数据源。
亚马逊云科技的" AI 步法"
在看完本届 re:Invent 统统实质和实力之后,亚马逊云科技在生成式 AI 期间的发展旅途其实也就比较明晰了——
从客户的真正业务需求开赴。
上文种种实质的更新,都是基于"客户的干事出现了什么问题",包括揣测、存储、数据库上的瓶颈,包括客户在模子上的遴选,再包括应用上的搬动干事等等。
瞻念察了背后的实用主义逻辑,也就不难意会,亚马逊云科技为何遴选在这个时分节点上发布一系列多模态大模子,如故因为客户有需要。
这种需要,具体而言,就是客户在模子上的遴选,毕竟"莫得一个模子不错一统宇宙",每个模子都有我方所擅长的鸿沟。
但亚马逊云科技所作念的,是诳骗我方在基础设施、器用 / 模子和应用三个层面的深耕和实力,给客户多提供了一个"快、好、省"的选项。
归来亚马逊云科技的起步,似乎这少许从未变过。
正如 Matt 在大会上回忆的那样:
亚马逊云科技在 2006 年推出时,初创公司是第一批用户,他们总瑕瑜常积极地接收新时刻,而且能够提供有价值的反馈。
而这种反馈也进一步鼓励了亚马逊云科技的发展,也有助于意会怎么更好地撑合手创业精神。
因此,Matt 在大会中还晓谕了一个重磅讯息:
将在 2025 年为大师的初创公司提供10 亿好意思元的资金撑合手!
One More Thing
本届 re:Invent 揣测6 万东谈主参与,来感受一下这个眷注、这个 feel~
参考团结:
[ 1 ] https://www.aboutamazon.com/news/aws/amazon-nova-artificial-intelligence-bedrock-aws
[ 2 ] https://aws.amazon.com/blogs/aws/amazon-ec2-trn2-instances-and-trn2-ultraservers-for-aiml-training-and-inference-is-now-available/
[ 3 ] https://aws.amazon.com/blogs/aws/new-amazon-s3-tables-storage-optimized-for-analytics-workloads/
— 完 —
点这里� � 关注我,难忘标星哦~
一键三连「共享」、「点赞」和「在看」
科技前沿进展日日重逢 ~