模型

Motion Anything

Motion Anything 是一款由多所高校与企业联合研发的多模态运动生成框架,可基于文本、音乐或两者结合生成高质量人类运动。其核心在于基于注意力的掩码建模和跨模态对齐技术,实现对运动序列的精细控制与动态优先级调整。该工具支持影视动画、VR/AR、游戏开发、人机交互及教育等多个应用场景,并配套提供 Text-Music-Dance (TMD) 数据集,推动多模态运动生成技术的发展。

FlagEval

FlagEval作为一个专业的语言模型评估平台,为用户提供了一个可靠、标准化的评测环境。通过这个平台,研究人员和开发者可以全面了解模型的性能,推动语言模型技术的不断进步和创新。

FunClip

FunClip是一款由阿里巴巴达摩院通义实验室开发的开源、本地部署的视频剪辑工具。它主要通过自动化语音识别技术,帮助用户基于语音转文字的结果,选择特定文本片段或说话人进行视频剪辑。其特点包括高精度的中文ASR模型、热词定制化、说话人识别功能、Gradio交互界面,以及支持多段剪辑和自动生成SRT字幕文件。

子曰翻译2.0

子曰翻译2.0是网易有道推出的最新翻译大模型,通过数据优化、算法升级和严格评估体系,实现翻译质量与效率的显著提升。支持中英互译、专业领域翻译及多场景应用,涵盖学术、医疗、文学等领域,具备高准确性、流畅性和适应性,适用于多种翻译需求。

Bamba

Bamba-9B是一种基于Mamba2架构的解码型语言模型,专注于提升大型语言模型的推理效率,尤其擅长处理长文本。它通过恒定的KV-cache设计解决了内存带宽瓶颈问题,并在多个开源平台上得到支持。Bamba-9B不仅具有高效的吞吐量和低延迟的特点,还支持模型量化及长上下文长度扩展,适用于多种应用场景,包括机器翻译、智能客服、内容推荐、自动摘要和社会媒体监控等。

R1

R1-Onevision 是一款基于 Qwen2.5-VL 微调的开源多模态大语言模型,擅长处理图像与文本信息,具备强大的视觉推理能力。它在数学、科学、图像理解等领域表现优异,支持多模态融合与复杂逻辑推理。模型采用形式化语言和强化学习技术,提升推理准确性与可解释性,适用于科研、教育、医疗及自动驾驶等场景。

Micro LLAMA

Micro LLAMA 是一款基于简化版 Llama 3 模型的教学工具,通过约 180 行代码实现 8B 参数的最小化模型,支持自注意力机制和前馈神经网络。它提供 Jupyter 笔记本和 Conda 环境配置指南,帮助用户轻松学习和实验,特别适用于学术教学、研究开发和个人学习。

PromptWizard

PromptWizard是一款由微软研发的自动化提示优化框架,专注于提升大型语言模型在特定任务中的表现。其核心技术包括自我演变、自我适应以及反馈驱动的批评与合成,通过迭代优化提示指令和上下文示例,显著增强模型的准确性和效率。PromptWizard适用于多种应用场景,如情感分析、智能教育助手、医疗诊断支持、法律文档分析及客户服务自动化等,助力各行业实现更高效的智能化操作。

UniVG

百度公司推出的视频生成模型,能够以文本和图像的任意组合作为输入条件进行视频生成。

Zamba2

Zamba2-7B是一款由Zyphra公司开发的小型语言模型,具有高效的推理速度和低内存占用的特点。它在图像描述任务中表现出色,适用于边缘设备和消费级GPU。Zamba2-7B通过创新的混合架构和技术优化,提供了卓越的语言理解和生成能力,同时支持多种应用场景,如移动应用开发、智能家居设备、在线客服系统、内容创作以及教育工具等。