AI项目与工具

Dolphin

Dolphin是由清华大学与海天瑞声联合开发的面向东方语言的语音识别大模型,支持40种语言及22种中文方言,具备高精度语音转文字能力。采用CTC-Attention架构,结合E-Branchformer和Transformer技术,提升识别效率与准确性。模型开源,支持自定义语言与地区设置,适用于会议记录、语音输入、智能助手等多种场景。

gling

Gling是一款集成了先进AI技术的视频编辑工具,主要功能涵盖自动去除不良拍摄片段、消除沉默及填充词、生成AI字幕、自动缩放画面、降低背景噪音等。它还能够为视频生成优化标题与章节,适用于个人视频博主、播客制作人、在线教育者及企业培训等多个领域,助力提升视频质量和效率。

TokenVerse

TokenVerse 是一种基于扩散模型的多概念图像生成工具,支持从单图或多图中解耦并组合视觉元素,如物体、材质、姿势等。通过优化调制空间,实现对复杂概念的局部控制,无需微调模型即可生成个性化图像,适用于创意设计、艺术创作和内容生成等多种场景。

书生·浦像

书生·浦像是由多家科研机构联合开发的超高动态成像算法,核心为浦像HDR(UltraFusion HDR)。它结合AIGC与HDR技术,在极端光照条件下实现图像细节修复和高质量输出,有效解决动态场景中的运动伪影问题。适用于摄影、手机成像和自动驾驶等领域,具有多曝光融合、动态处理、色调映射等功能,提升了图像的鲁棒性与真实感。

VectorVein

VectorVein 是一款开源的无代码AI工作流工具,通过简化拖拽操作,使用户无需编程知识即可构建智能工作流,实现日常任务的自动化。它支持数据处理、分析和知识管理等多种应用场景,具备无代码、AI驱动和可定制化等特点。VectorVein 旨在降低AI应用的门槛,提升个人和团队的工作效率,并提供本地部署和开源选项,以满足不同用户的数据安全和隐私需求。

SAC

SAC-KG是一个基于大型语言模型(LLMs)的框架,用于自动化构建领域知识图谱。它包含生成器、验证器和剪枝器三大组件,能从原始语料库生成高精度的特定领域知识图谱,适用于医学、生物学等专业领域。SAC-KG支持大规模数据处理,其精度可达89.32%,显著优于现有方法。

VRAG

VRAG-RL是阿里巴巴通义大模型团队推出的视觉感知驱动的多模态RAG推理框架,旨在提升视觉语言模型在处理视觉丰富信息时的检索、推理和理解能力。通过定义视觉感知动作空间,实现从粗粒度到细粒度的信息获取,并结合强化学习和综合奖励机制优化模型性能。该框架支持多轮交互推理,具备良好的可扩展性,适用于智能文档问答、视觉信息检索、多模态内容生成等多种场景。

Dippy

Dippy 是一款基于 AI 技术的个性化伴侣平台,通过虚拟角色实现与用户的互动交流。其特色包括思维链技术,使用户能洞察 AI 回答的逻辑过程;同时支持用户自定义角色外观、情感陪伴、语言学习及任务管理等功能。Dippy 目前专注于 iOS 用户群体,致力于打造高度个性化且透明的 AI 交互体验。

Gemini 2.5 Flash

Gemini 2.5 Flash 是 Google 推出的高性能 AI 模型,具备低延迟、高效率及推理能力,适用于代码生成、智能代理和复杂任务处理。其优化设计降低了计算成本,适合大规模部署。该模型基于 Transformer 架构,结合推理机制和模型压缩技术,提升了响应速度与准确性,广泛应用于智能开发、内容生成和实时交互等领域。

Vid2World

Vid2World是由清华大学和重庆大学联合开发的创新框架,能够将全序列、非因果的被动视频扩散模型(VDM)转换为自回归、交互式、动作条件化的世界模型。该模型基于视频扩散因果化和因果动作引导两大核心技术,解决了传统VDM在因果生成和动作条件化方面的不足。Vid2World支持高保真视频生成、动作条件化、自回归生成和因果推理,适用于机器人操作、游戏模拟等复杂环境,具有广泛的应用前景。