模型

VideoLLaMA3

VideoLLaMA3 是阿里巴巴开发的多模态基础模型,支持视频与图像的深度理解和分析。基于 Qwen 2.5 架构,结合先进视觉编码器与语言生成能力,具备高效时空建模与多语言处理能力。适用于视频内容分析、视觉问答、字幕生成等场景,提供多种参数版本,支持灵活部署。

CoA

CoA是由谷歌开发的多智能体协作框架,用于解决大语言模型在处理长文本任务时的上下文限制问题。它将长文本分割成多个片段,由多个智能体依次处理并通过链式通信传递关键信息,最终由管理智能体整合生成结果。该框架无需额外训练,支持多种任务类型,如问答、摘要和代码补全,且具有高效性和可扩展性。其时间复杂度优化显著提升了处理长文本的效率。

OpenCodeInterpreter

通过结合大型语言模型和代码执行反馈,提供了一个强大的工具,可以帮助开发者在软件开发过程中提高效率和质量。

自得语音

自得语音技术可通过简单的步骤创造出属于你的角色。类似GPT,可生成与真人无异的语音片段,在情感、音色和语速等方面与真人一致。

StoryPlay AI

一个致力于为短剧内容创作提供可视化流程,实现剧本策划、剧本创作、剧本分镜创作等围绕短剧创作全工作流的AI赋能,实现创作者5-10倍的降本增效的AI短剧剧本创作工具

STIV

STIV是一款由苹果公司开发的视频生成大模型,具有8.7亿参数,擅长文本到视频(T2V)及文本图像到视频(TI2V)任务。它通过联合图像-文本分类器自由引导(JIT-CFG)技术提升生成质量,并结合时空注意力机制、旋转位置编码(RoPE)及流匹配训练目标优化性能。STIV支持多种应用场景,包括视频预测、帧插值、长视频生成等,适用于娱乐、教育、广告及自动驾驶等多个领域。

RWKV

RWKV-7是一种先进的大模型架构,超越传统注意力机制,具备强大的上下文学习能力和高效的训练稳定性。其动态状态更新和学习率调整机制提升了模型性能,适用于文本生成、机器翻译、情感分析、对话系统及多语言处理等多种应用场景。

福棠·百川

福棠·百川是全球首个儿科大模型,由国家儿童医学中心等机构联合研发,具备强大的临床推理能力和循证医学模式,整合了海量医疗数据和专家经验,可提供个性化诊疗方案。该模型应用于基层和专家版,分别服务于日常诊疗和疑难病诊断,已在北京儿童医院投入使用,诊断准确率达95%。同时支持在线问诊、远程会诊、教育及科研等多场景应用。

UniTok

UniTok是由字节跳动联合高校研发的统一视觉分词器,支持视觉生成与理解任务。其采用多码本量化技术,将视觉特征分割并独立量化,显著提升离散token的表示能力。在ImageNet上实现78.6%的零样本分类准确率,图像重建质量达0.38。可作为多模态大语言模型的视觉输入模块,广泛应用于图像生成、视觉问答、内容创作及跨模态检索等场景。