岩山科技2024-03-15投资者关系活动记录

岩山科技2024-03-15投资者关系活动记录
微信
微信
QQ
QQ
QQ空间
QQ空间
微博
微博
股吧
股吧
日期 股票名 调研地点 调研形式
2024-03-15 岩山科技 - 特定对象调研,券商策略会,现场方式
PETTM PB 股息率TTM 总市值 换手率
- 2.94 0.20% 289.76亿 3.95%
营业收入同比增长率(%)(单季度) 营业收入同比增长率(%) 归母利润同比(%)(单季度) 归母利润同比(%) 净利润/营业总收入
-5.13% -5.13% -59.68% -59.68% 3.45
销售毛利率 销售毛利率(单季度) 销售净利率 销售净利率(单季度) 毛利
22.35% 22.35% 3.45% 3.45% 0.37亿
销售费用/营业总收入 管理费用/营业总收入 营业总成本/营业总收入 归属于母公司的股东权益/带息债务 研发费用/总市值
4.36 88.87 166.36 367.79 -
存货周转天数 应收账款周转天数 资产负债率 利息费用/息税前利润 息税前利润
15.62 72.05 2.11% 8.02% -0.01亿
企业自由现金流量 带息债务 财务数据报告期
业绩预告
公告日期 2025-01-18
报告期 2024-12-31
业绩预告变动原因
0.27亿 2025-03-31 预计:净利润2800-4200 2024年度公司业绩预计同比下降的主要原因如下:1、因实施2023年员工持股计划,公司2024年度确认股权激励费用导致归属于上市公司股东的净利润降低约10,000万元。2、公司全资子公司因司法裁定过户而被动持有的创新医疗管理股份有限公司股票因股价波动导致公允价值变动收益同比减少约9,400万元。3、公司持续加大人工智能板块研发投入,剔除股权激励费用影响后,2024年人工智能板块研发支出同比增加约10,000万元。
参与机构
东吴证券,甬兴证券,长江证券,东吴证券策略会议所邀请的投资者
调研详情
主要内容如下:

一、岩思类脑人工智能研究院简介

公司在2023年半年度报告中对全资子公司上海岩思类脑人工智能研究院有限公司(以下简称“岩思类脑研究院”)的基本情况进行了披露。岩思类脑研究院是公司在承继了控股股东多年在类脑人工智能领域的研究成果基础上,于2023年8月成立。岩思类脑研究院致力于开展大脑内部状态解析与调控、深度生成式大脑信号解码算法、非器质性重大脑疾病的诊断和干预等前沿领域的研究。

岩思类脑研究院以脑电大数据与脑电大模型为核心技术底座,面向脑科学和人工智能领域的前瞻性研究,开展脑机接口解码算法与系统、非器质性脑疾病的诊断和评估、大脑内在状态调控等方向的科学研究和产品开发,推动研究成果商业化落地。

目前类脑研究院的研究工作由哈佛大学博士后研究员、德国马克普朗克学会研究科学家、中国科学院上海微系统与信息技术所研究员李孟博士领衔。李孟博士的主要研究成果包括:深耕大脑神经解码(斑马鱼、啮齿类动物和人类大脑)、类脑计算和原生脑计算(脑机接口)等前沿领域。在哈佛大学工作期间,破解了全球首例斑马鱼全脑十万量级神经元网络,相关研究论文《Internalstatedynamicsshapebrainwideactivityandforagingbehaviour》发表于顶级学术期刊Nature,并被Nature杂志以“News andViews”和“NewsFeature”形式进行单独评论和报道,是脑科学与人工智能交叉领域的里程碑式工作。

二、RockAI(岩芯数智)业务简介

在2023年半年报中,公司已经披露了在AIGC领域的布局情况。为进一步推进相关业务发展,公司已于2023年6月专门成立了上海岩芯数智人工智能科技有限公司(以下简称“RockAI”或“岩芯数智”)。

RockAI是以认知智能为基础,专注于自然语言理解、人机交互等核心技术的创新型企业。RockAI从零开始完全自主研发、并于2024年1月发布了国内首个非Attention机制的通用大模型——“Yan1.0模型”。

经对比实验验证(实验情况详见后文),在该等实验情况下Yan1.0模型拥有相较于同等参数Transformer架构LLaMA 2模型更高的训练推理效率、吞吐量及记忆能力,更低的机器幻觉表达,同时支持CPU无损运行并100%支持私有化应用。

2024年RockAI将围绕Yan架构持续加强核心算法创新及迭代升级,着力构建Yan2.0大模型,Yan2.0模型将会融合文字、音频、视频等多模态,以应用于更广泛的业务。

三、介绍环节

1、公司在类脑人工智能、脑机接口领域是如何布局的?

类脑人工智能的目标是利用最新的脑科学与人工智能技术及工具,通过破译生物大脑的结构和功能,绘制大脑功能、结构和信息处理图谱,从微观、介观和宏观水平加深对生物大脑工作原理的理解,并构建模拟生物大脑的人工神经网络系统,最终达到“认识脑、保护脑和模拟脑”的目标。脑机接口技术是类脑人工智能研究的一个细分领域,旨在打破大脑与外界信息交互瓶颈,是实现人机交互、人机交融的必由之路。近期国内外脑机接口技术不断取得新进展,岩思类脑团队很早之前就已经认识到随着材料科学、信号处理、医疗设备的不断进步,可以采集到的脑电信号的数据量越来越庞大,如何从海量的数据中提取出所需颗粒度的信息,其中的脑电解码算法是脑机接口系统中急需突破的关键。

基于上述思考,岩思类脑跳过电极、芯片等硬件的研发,直接提前布局脑电大模型的构建和研发,从而可以适应现在及将来非侵入式、侵入式等多种方式获得的海量脑电神经网络数据,以脑电大模型为硬件赋能,从而达成实时、精准、高效的人机交互系统。因此,岩思类脑研究院当前重点开展大脑内部状态解析与调控、及脑电大模型的研究。

2、目前岩思类脑已经开始尝试进行脑电大模型的预训练,请问与传统大数据相比,脑电大数据有哪些特点?与语言大模型类比,脑电大模型有哪些区别?与传统大数据相比,脑电大数据训练数据获取难度高,一般临床医学上通过侵入式方式获得的脑电数据更加精准;脑电大数据的时空复杂度高,大脑是一个三维空间,脑电数据既包含大脑皮层空间位置信息,又是时间维度上的连续信号;脑电大数据的预处理难度更大,需要按神经系统特性规律进行合理分割后才能token化。

与自然语言大模型类比,脑电大模型需要实现更高自由度、更细颗粒度的解码效果以及极强泛化性能,以实现跨样本、跨物种模型泛化移植的效果。当前侵入式脑机接口没有大范围应用的瓶颈之一在于模型的泛化性比较差,通常只是建立针对单个病人的脑电数据模型。但是脑电大模型可以通过采集海量的临床数据,提取其底层最本征的表达,进行脑机接口解码,未来目标包括实现在不同样本甚至不同物种之间进行移植。

3、RockAI(岩芯数智)为什么要从零开始设计非Attention机制的YAN架构,而不是使用ChatGPT、LLaMA、PaLM等Transformer架构的大模型进行设计或调整?

Attention机制是一种能让模型对关键信息重点关注并充分学习吸收的技术,也就是把注意力集中放在重要的点上,而忽略其他不重要的因素。ChatGPT等都利用了 Transformer架构,其核心技术之一就是 Attention机制。标准的Attention机制的计算复杂度为O(n^2*d)(其中n表示序列长度、d表示特征维度,^2指平方)。标准Attention机制的复杂度随序列长度呈2次方增长。通常来说Transformer架构具有训练周期较长、应用成本过高、高机器幻觉表达等缺陷,在实际应用中需要的高算力和高成本让不少中小型企业望而却步。

针对Transformer架构的上述缺陷、以及不同行业对于高效能、低能耗AI大模型需求的不断增长,公司旗下岩芯数智研发团队意识到从零开始设计新架构的必要性,并于2024年1月推出了国内首个非Attention机制大模型—Yan

1.0模型。

4、从大模型解码层结构来看,Yan架构与Attention机制模型区别如何?

图1基于多头Attention机制的Transformer模型结构

图2Yan架构的大模型解码层结构

图1为基于多头Attention机制的Transformer大模型结构,标准的

Attention机制的计算复杂度为O(n^2*d),其复杂度随序列长度呈2次方增长。这也就意味着,当输入序列长度增加时,计算成本和显存需求会快速增长。

从图2的Yan架构大模型解码层结构可以看到,Yan架构没有基于

Attention机制,也没有基于RNN(指Recurrent NeuralNetwork,循环神经网络)等序列模型,而是通过完全自研的记忆算子及特征关联函数,将计算复杂度从标准Attention机制的O(n^2*d)降低为O(n*d)(线性复杂度),从而提高了Yan架构模型的训练效率和收敛速度。因此,Yan架构模型具有训练速度快、推理成本低、记忆能力强等优势。

5、对相同参数量级的Yan模型和Transformer架构的大模型进行对照实验后,实验结果如何,是否能验证Yan架构的优势?

RockAI对相同参数量级的Yan1.0模型和Transformer(对照实验中采用的Transformer是基于HuggingFace LLaMA2的标准结构,同时开启了flash-attn的支持)架构模型分别用1,000万条中英平行语料,基于同样软硬件环境的NVIDIAA800服务器训练以及同样的迭代次数下进行了对照试验:

(1)训练效率方面,在上述对照实验环境下Yan1.0模型的损失值要低于Transformer架构的LLaMA2模型。在训练集上,训练数据收敛到相同的loss(loss=3.0)时,Yan1.0模型仅需要1.5小时,而LLaMA2模型却花费10.5小时,因此Yan1.0模型的训练效率更高。

(2)推理准确率方面,在上述对照实验环境下Yan1.0模型比LLaMA2模型在训练集上的预测准确率高出17%、在验证集上的预测准确率高出13%。

(3)显存占用方面,基于同样的参数量级在单张NVIDIARTX409024G显卡上,当输出token的长度超出2,600时,LLaMA2模型会出现显存不足,进而无法完成推理;Yan1.0模型的显存使用始终稳定在14G左右,可以进行正常推理。Yan1.0模型的显存占用及成本比LLaMA2模型更低。

(4)记忆能力方面,古诗是通过简短的字和词语表达丰富语境的一种体裁,token之间的困惑度也高于现代文,这恰好可用于评测模型的记忆能力。在对照实验中分别用数十万条古诗数据进行续写训练,与LLaMA2模型相比,Yan1.0能够更快的达到更好的收敛,以及更高的准确率。

6、Yan模型能够部署在办公电脑上吗?

原生结构的Yan架构模型,在零压缩、零裁剪的情况下,依然能够流畅运行于主流消费级CPU设备,例如经训练后的模型可以部署在配置了Inteli7、i5CPU的笔记本电脑或台式机,以及M系列芯片的MacBookPro等。

对比之下,70亿(7B)参数量的Transformer却无法在上述CPU设备上直接运行,通常Transformer需要经过8bit甚至4bit的量化后才能正常运行,这不可避免的带来了推理精度的损失。

7、OpenAl发布了首个文生视频模型Sora,请问贵公司是否也布局推进相关的新技术?

2024年1月RockAI发布的Yan1.0大模型以自然语言为主,尚不支持文生视频功能。目前RockAI正在研发Yan2.0大模型,Yan2.0将会融合文字、音频、视频等多模态,以应用于更广泛的业务。Yan2.0模型预计将于2024年下半年推出,具体推出时间请以后续岩芯数智的发布为准。8、未来Yan模型有哪些应用潜力,商业化构想如何?

Yan架构的模型也是通用大模型的一种,可适用于当前所有通用化大模型的商业化应用场景。Yan架构模型现阶段商业化的重点主要在尝试为企业客户提供本地化应用和部署,满足客户对于数据隐私、安全及低成本部署上的需求,目前尚未形成规模收益。

未来,针对toB垂直领域,RockAI希望能在低消耗、显存受限的情况下,打造基于Yan架构的专业生产力工具,解决更多低算力模型场景应用,如在网络连接不稳定或离线使用场景的应用等。

9、请介绍一下公司拟收购的智能驾驶企业Nullmax纽劢科技的最新进展情况。

公司拟增资并收购Nullmax(Cayman)Limited部分股权的事项目前正在向商委、外汇管理局等主管部门办理境外投资ODI审批手续中。相关进展请以公司公告为准。
AI总结

								

免责声明:数据相关栏目所收集数据,均来自第三方个人或企业公开数据以及国家统计网站公开发布数据,数据由计算机技术自动收集更新再由作者校验,作者将尽力校验,但不能保证数据的完全准确。 阅读本栏目的用户必须明白,图表所示结果或标示仅供学习参考使用,均不构成交易依据。任何据此进行交易等行为,而引致的任何损害后果,本站概不负责。

我的收藏
关注微信公众号 微信公众号二维码 获取更多数据
关闭 X