一、首届Open 人工智能开发者大会的期待
据Open AI官网,Open 首届人工智能开发者大会将于11月6日在旧金山举行,来自全国各地的数百名开发人员和Open 人工智能团队将参与其中,预览新工具,交流想法。
众所周知,OpenAI已经成为世界上最顶尖、最受欢迎的人工智能企业,其GPT系列产品获得了15亿活跃用户,占全球人口的20%,其增长率惊人。ChatGPT具有接近人类水平的语言理解能力,是人工智能领域最成功的产品历史上用户增长最快的应用程序。最近,OpenAI公司的估值飙升至6300亿元,是今年年初的三倍,基于最新产品GPT4的出色表现。
伴随着人工智能应用市场的不断扩大和升级,开发人员正在寻找一种更有效、更经济的方式来构建应用程序。为了满足这一需求,OpenAI将在11月6日下周一的首届开发者大会上发布该公司的GPT-4、DALL•E等模型的新进展主要包括:1)发布内存存储API,减少重复上传历史文本带来的代码消耗,降低API呼叫成本;2)继续推进多模式布局,推出GPT-4 V和DALL•E API调用服务等。
其中,年度最重磅更新——Stateful API(记忆API)。这种创造性的新工具可以使大型模型记住查询的对话历史,使对话系统更智能、更连贯地响应用户的要求,大大降低角色和功能的冗余输入,提供更个性化、更定制的体验。最重要的是,Stateful降低了GPT应用程序建设成本95%!
超出预期范围的降本,Open 人工智能开发者迎来福音!下一步,相关公司可以以极低的成本和更快的速度构建GPT模型。以重度应用人工智能工具的游戏和影视行业为例,人工智能辅助设计成本可能占成本的近50%,但现在几乎所有这些成本都将成为利润!这样,无论toC,包括游戏、影视传媒、电商、企业管理软件等行业, & toB,整个人工智能生态系统成员企业的利润预期将大幅提高,这将推动人工智能应用产品的爆发!
二是多模态持续推进,超出预期降本
1、API存储有望有效降低API调用成本
目前大量token用于历史文本传输,内存存储API有望降低API调用成本95%。根据公司官方网站,目前通过GPT-4、GPT-3.5Turbo上传750字的文档分别需要0.06、0.03美元(以最高速度计算)。2023年6月,公司首席执行官 Sam 在接受人工智能开发平台Humanlop采访时,Altman透露了公司的发展路线图,包括推出“记忆API”,以解决大量token用于历史文本传输的问题。据路透社介绍,内存存储API可在开发者大会上推出,提高大模型计算速度,降低开发者API调用成本95%。
1)降低API调用成本:在运行AI应用时,需要通过API将其历史记录上传到大型模型,使大型模型能够根据历史记录生成内容,导致大量token用于历史记录传输。内存存储API推出后,使用AI应用时,只需通过API上传最新的对话记录,大模型就可以结合记录及其维护的历史记录生成新的内容,从而减少token的使用。
2)提高大模型的计算速度:内存存储API启动后,大模型只需计算新记录,不需要重复计算历史记录,可以提高计算速度,减少计算能力的浪费。
2、持续推进多模态,GPT-4和DALL•E 3或向开发人员开放
GPT-4新版本开启灰度测试,提升多模态体验。根据theverge,公司于10月底向部分ChatGPT发布 PLUS用户开放了GPT-4的新版本,主要功能更新包括:
1)支持上传多格式文件:用户需要在旧版本中使用“Advanced Data Analysis在新版本中,用户可以直接上传PDF文档并提取信息;、未来可能会支持更多的文件类型,如数据文件等格式文件;
2)一站式工具集成:GPT-4不同的模式有自己的优点和功能缺点,多模式模式可以同时处理文本、图像、声音等数据,但只支持图片上传;数据分析模式具有较强的数据处理和分析能力,但不能实时连接;实时连接模式和DALL-E不支持文件上传。在旧版本中,用户需要独立选择模式;新版本,GPT-4.根据用户需求,自动选择和安排多个工具完成任务,并迭代AI智能人物。
GPT-4V和DALL•E 3可以推出API接口。多模态API可以在开发者大会上推出,用于处理和生成除文本以外的各种类型数据,包括图像、音频和视频,开发者可以构建具有多模态能力的AI应用程序。基于公司目前的大型模型,我们预计GPT-4V和DALL•E 可能会推出3个API接口:
1)GPT-4V:据领英,Logan Kilpatrick是OpenAI第一位负责开发者关系的工程师,于2022年12月入职,长期通过X(Twitter)与开发人员沟通。11月1日,他发布了一篇新帖子,宣布9月份ChatGPT更新的多模态功能将很快向所有人开放,并通过API接口将图片上传到GPT-4V,以回答开发者想要获得的信息。因此,我们预计公司可能会在开发者大会上推出GPT-4VAPI接口。
2)DALL•E 3:公司于2023年9月推出了图像生成模型DALL•E 3.目前,ChatGPT已向Chat发展 PLUS和企业用户开放。根据公司官方网站,计划在今年秋季开放API接口。
三、相关概念股:
1.浪潮信息:
底层计算能力是最确定的投资方向。然而,核心计算能力的GPU被英伟达垄断。国内企业在GPU方面的技术与英伟达仍有很大差距,短期内难以赶超。因此,在中国,集成GPU的人工智能服务器领域最有可能产生一个“销售铲人”,这个“铲人”深深地受益于人工智能的发展。
浪潮信息是中国唯一一家使用英伟达GPU作为人工智能服务器的制造商。其人工智能服务器在中国市场的市场份额高达52.4%,排名第一。特别是在大型互联网制造商中,如BAT、浪潮信息是字节跳动等公司最大的服务器供应商,占50%以上。
除了算法能力,浪潮信息还布局在算法模型中。早在2021年,浪潮信息就发布了“源1.0”人工智能巨型模型。“源1.0”的模型结构与GPT-3相似,但参数达到2457亿,超过GPT-3。它是世界上最大的中文语料AI巨型模型。到目前为止,已有3000多名注册开发者注册了“源1.0”大型开源平台。
2,三六零:
百度是做大模型的公司中最好的。在a股中,与百度非常相似的360被寄予厚望。
360对每个人来说都不陌生。其360搜索在中国搜索引擎市场排名第二,市场份额达到35%。除了360搜索,360还拥有360百科全书,用于百度知识和Reddit的基准测试,以及百度百科全书和维基百科全书的基准测试。这些资源为360提供了大量的培训数据,使360自然具有数据清理和数据迭代的核心功能。
在算法模型方面,根据公司在互动平台上的回答,自2020年以来,360一直在包括ChatGPT、包括文本生成图像等技术的文本生成 AIGC 目前,公司在技术上有持续的研发和计算投资。 ChatGPT技术的指标已经达到了GPT-2的水平,在中文背景下的实际效果也比GPT-2强。
截至2022年计算能力 年半年报,360货币资金超过200亿,资金储备充足,应对计算能力竞赛。
三、科大讯飞:
垂直行业积累的公司越来越多。科大讯飞作为国内认知智能领域的龙头企业,长期深入从事教育、医疗等领域,在相关垂直行业积累了强大的数据。
在算法模型方面,科大讯飞在Transformer深度神经网络算法方面有着丰富的经验,开源了40多个通用领域和6个类别的中文预训练语言模型系列,成为业内最受欢迎的中文预训练模型系列之一。值得一提的是,GPT模型也是基于Transformer深度神经网络算法开发的。
在计算能力方面,科大讯飞建立了行业一流的人工智能数据中心,实现了近100亿参数大模型推理效率的近100倍加速,为大模型培训平台的建设奠定了良好的硬件基石,为未来更大、更多的认知智能大模型技术提供了可能。海涵金融
10月10日,上交所再次举行券商座谈会,现场宣讲并购重组最新政策精神,并就进一步活跃并购重组市场、打通政策落地“最后一公里”听取意见建议。中信证券、中金公司、中信建投、华泰联合、国泰君安、国信证券、东方证券、广...
来源:券商中国作者:时谦今天早盘,A股市场波动较大,但经过一段下挫之后,很快就被多头拉起。而从盘面来看,以代码601开头的大盘蓝筹股(亦是高股息板块)今天表现非常突发,红利ETF大多涨幅在4%左右水平。那么,究竟又是何逻辑呢?分析...
中字头及红利资产全天保持强势,沪深两市交易量连续第4日突破2万亿元!市场对后续政策的期待仍在升温。今日(10月10日),A股三大股指走势分化,截至收盘,上证指数涨1.32%,深证成指跌0.82%,创业板指跌2.95%。全市场个股涨多跌少,超30...
要点1通化东宝控股股东所持股份质押率高遭质疑,公司董事长李佳鸿称,系东宝集团投资项目周期长造成;要点2业绩方面,李佳鸿预计称下半年公司营收将逐季恢复;要点3公司还对新产品销售情况做了介绍。财联社10月10日讯(记者 何凡...
要点1海外市场需求持续旺盛,赛轮轮胎预计公司前三季度业绩同比增约六成;要点2天然橡胶、炭黑、合成橡胶等生产原材料均有涨价,为应对成本压力,多家轮胎公司宣布产品涨价。财联社10月10日讯(记者 肖良华)海外市场需求持续旺...
本文“首届Open 人工智能开发者大会的期待”由壹米财经整理发布,欢迎转载收藏,转载请带上本文链接。
免责声明:【壹米财经】发布的所有信息,并不代表本站赞同其观点和对其真实性负责,投资者据此操作,风险请自担。部分内容文章及图片来自互联网或自媒体,版权归属于原作者,不保证该信息(包括但不限 于文字、图片、图表及数据)的准确性、真实性、完整性、有效性、及时性、原创性等,如有问题,请联系我们!