cyanpuppets
CYAN.AI 动作生成大模型
累计交付超200+企业客户
重新想象未来的3D世界
CYAN.AI平台是基于动作大模型,开创性地利用AI图像算法实现2D视频生成3D动作数据,实现虚拟世界与现实世界的协作
基于人工智能、计算机视觉、生物力学创建的3D算法模型
CYAN.AI平台以CNN和DNN为核心,通过2D视频提取人体动作关键特征作人体姿态识别,追踪超过208个关键点,结合动力学、生物力学生成人体运动的建模算法,全流程完成面部、表情、肢体的高精度捕捉。同时辅助动捕特征平滑算法、图像识别多目协同、空间检测及定位算法、重定向算法,骨骼映射算法等多种算法
面部捕捉140点
手指捕捉21点
肢体捕捉30点
9亿
参数量
0.1s
延迟
208
关键点捕捉
数字模型的孤岛正在搭建桥梁
CYAN.AI构建了全新的骨骼系统,通过自研Retargeting算法对主流的Metahuman、Unreal Skeleton Asset、Daz、CC4、iClone、Unity avatar、VRM、MMD、Mixamo、MayaAdv、MayaHumanIK、3DmaxBiped等主流模型骨骼系统进行匹配映射,让虚拟化身的全身驱动不再是一个个割裂的数字孤岛。
UE5
 metahuman
UNITY
iclone
CC
DAZ
为独立创作者和影视级游戏工作室而生
描述
CYANPUPPETS使得个人创作者和专业工作室在任何地方都可以捕捉高质量的3D数据,无需穿戴复杂的动捕套装
几乎没有任何难度的部署
CYAN.AI架构对场地进行自动标定,自动识别切割人物/背景/障碍物。即使在复杂/狭小/多干扰物的环境中依然稳定实现高精度的动作捕捉,一键导出FBX数据至本地文件夹。
联系方式
    联系方式
  • 微信:cyanpuppets
  • 邮箱:cyan_ai@cyanpuppets.com
周一至周五9:30 - 18:30
客服微信
客服微信
NVIDIA INCEPTION PROGRAM支持
intel® partner alliance计划支持
Unity 黑马计划支持
消费级显卡 GeForce RTX 3060显卡即可流畅稳定FPS 30以上运行,实现更低延迟的数据信息吞吐与数据画面合成,以低至0.1s的延迟实现了超低延时的视觉动作捕捉
NVIDIA cyanpuppets
intel cyanpuppets
UNITY
我们的客户
清华大学、北京大学、南方科技大学、中国传媒大学、日本东京大学、上海工艺美术职业学院、淘宝、小米科技、完美世界、快手直播、腾讯游戏、Intel英特尔、哔哩哔哩、上海东方传媒、芒果幻视、乐华娱乐、中国电子集团、微软XBOX、Intel英特尔中国、拜科生物、齐乐无穷、世优科技、蔚领时代、创壹视频、数字栩生、硬盒文化、日本SKEP、达瓦未来、小核桃、优酷视频、网龙游戏、美国科赫工业、韩国Naver、Oneoreight、韩国Afun、Tegara、VXREAL、Cinecognix Lab、BLANKNEGATIVES
(部分)
案例
累计加速超200家合作方的3D内容创建流程、涵盖动画/游戏/XR/电视台/高校/娱乐/医疗/体育等领域
新闻活动
3D虚拟社交工具提供方 CYANPUPPETS获千万级天使轮融资
NVIDIA 赋能 Cyanpuppets 打造实时 2D 视频生成 3D 骨骼 AI 转换模型
来源:中国日报
来源:NVIDIA中国
Unity|CYAN.AI 2D视频实时生成3D动作的自研AI模型
来源:Unity中国
NVIDIA 赋能 Cyanpuppets 打造实时 2D 视频生成 3D 骨骼 AI 转换模型
来源:NVIDIA中国
Unity|CYAN.AI 2D视频实时生成3D动作的自研AI模型
来源:Unity中国
用户故事