深度学习

OMNE Multiagent

OMNE Multiagent是一个基于长期记忆技术的大模型多智能体框架,由天桥脑科学研究院开发。它支持多个智能体协同工作,每个智能体能独立学习和理解环境,具备深度慢思考和实时适应能力。OMNE框架通过优化搜索空间和逻辑推理机制,提升了复杂问题的决策效率,并在金融、交通、制造、医疗等领域展现出广泛应用潜力。

TxGemma

TxGemma 是由谷歌开发的药物发现人工智能模型,基于 Gemma 框架构建,支持化学结构解析、药物特性预测及多任务处理。具备对话功能,可解释预测逻辑,并支持多种参数版本以适配不同需求。适用于靶点识别、药物设计、治疗优化等多个场景,助力药物研发效率提升。

VisionFM

VisionFM是一款专为眼科设计的多模态多任务视觉基础模型,通过大规模预训练支持多种眼科成像模态处理,涵盖疾病筛查、诊断、预后预测、表型细分及全身性生物标志物分析等功能。其在疾病诊断上的表现超越了大部分眼科医生,并具备强大的泛化能力和少样本学习能力。

DL4J

DL4J开源的使用JVM部署和训练...

EasyAI

EasyAI,产品经理的人工智能学习库,用通俗易懂的方式帮助产品经理快速学习人工智能相关知识,让非技术人群也能快速理解人工智能。

DreamO

DreamO是由字节跳动与北京大学联合开发的图像定制生成框架,基于扩散变换器(DiT)模型实现多条件图像生成。支持身份、风格、背景等条件的灵活集成,具备高质量生成、条件解耦和精准控制能力。适用于虚拟试穿、风格迁移、主体驱动生成等多种场景,具备广泛的适用性和技术先进性。

CogVideoX

CogVideoX是由智谱AI开发的开源AI视频生成模型,支持英文提示词生成6秒长、每秒8帧、分辨率为720x480的视频。它具备低显存需求、视频参数定制、3D Causal VAE技术和推理与微调功能。该模型采用基于Transformer的架构和3D Causal Variational Autoencoder技术,支持多阶段训练和自动及人工评估,适用于创意视频制作、教育材料、广告、游戏、电影编

团子AI

一款集伴奏人声提取、乐器分离及无损音频升降调等功能于一体的在线人工智能音乐处理工具箱。

JoyGen

JoyGen是由京东科技与香港大学联合开发的音频驱动型3D说话人脸视频生成框架,能够实现唇部动作与音频信号的精准同步,并提供高质量的视觉效果。该工具采用单步UNet架构进行高效视频编辑,基于130小时中文视频数据集训练,在唇音同步和视觉质量方面表现优异。适用于虚拟主播、动画制作、在线教育及多语言视频生成等多个领域,为视频内容创作提供了创新解决方案。

VideoLLaMA3

VideoLLaMA3 是阿里巴巴开发的多模态基础模型,支持视频与图像的深度理解和分析。基于 Qwen 2.5 架构,结合先进视觉编码器与语言生成能力,具备高效时空建模与多语言处理能力。适用于视频内容分析、视觉问答、字幕生成等场景,提供多种参数版本,支持灵活部署。