深度学习

SPRIGHT

SPRIGHT是由多所高校和机构联合开发的视觉-语言数据集,旨在提升文本到图像生成模型的空间一致性。通过重新描述约600万张图像,强化空间关系表达,如“左/右”、“上/下”等,显著提高图像生成的准确性。该数据集支持复杂场景的图像生成,并经过多维度评估验证其可靠性。SPRIGHT为视觉-语言模型的研究和应用提供了重要资源,广泛应用于图像生成、VR/AR、教育及科研等领域。

TMEStudio

腾讯音乐娱乐公司推出的一款在线音乐创作助手,包音乐分离、MIR计算、辅助写词、智能曲谱等创作工具。

OutofFocus

OutofFocus是一款基于AI的图像编辑工具,支持文本提示驱动的图像生成与编辑。其核心功能包括风格转换、内容填充、图像修复和增强等,通过自然语言处理与扩散逆过程重建技术实现高效编辑。该工具具有易用性和灵活性,广泛适用于艺术创作、内容营销、教育研究等多个领域。

Neural.Love

neural.love是一个提供免费AI图像生成和AI增强工具的网站。用户可以访问数百万的公共领域图像,用于他们的创意项目,并可以使用AI技术轻松增强图像。

MineWorld

MineWorld是由微软研究院开发的基于《我的世界》的实时交互式AI模型,采用视觉-动作自回归Transformer架构,实现高保真、可控性强的场景生成。通过并行解码算法,模型可在每秒4至7帧的速度下实现实时交互,适用于具身智能、强化学习、游戏代理及视频生成等场景。其核心技术包括图像与动作标记器、Transformer解码器以及优化的训练与推理流程。

Etna模型

一个文字转视频的AIGC模型,Etna能够根据简短的文本描述生成相应的视频内容,支持生成时长为8-15秒的视频,且视频流畅度极高,每秒可达60帧。

飞扬Ai助手

专注于工作交付场景的AI助手,像巴黎欧莱雅一样值得拥有!

DAM

DAM-3B是英伟达开发的多模态大语言模型,专用于图像和视频中特定区域的详细描述。支持点、边界框、涂鸦或掩码等方式指定目标区域,生成精准文本描述。其核心技术包括焦点提示与局部视觉骨干网络,有效融合全局与局部特征。DAM-3B-Video版本扩展至视频处理,适用于动态场景。模型基于Transformer架构,支持多模态输入,广泛应用于内容创作、智能交互及无障碍工具等领域。

LipRead Pro

LipRead Pro 是一款基于AI技术的视频唇读工具,可将视频中的唇部动作转换为文字,支持多语言和口音识别。其高精度算法确保了文字输出的准确性,适用于内容创作、无障碍辅助、安全监控、历史档案修复等多种场景。操作简便,处理高效,注重用户数据隐私保护,适合专业用户和普通用户使用。

Multi

Multi-Speaker 是 AudioShake 推出的高分辨率多说话人分离工具,支持将音频中不同说话人的语音精准分离至独立轨道,适用于广播级音频处理。它具备高保真音频处理能力,支持高采样率,能处理长达数小时的录音,在复杂场景下仍能保持稳定效果。广泛应用于影视、播客、无障碍服务及内容创作等领域,提升音频编辑效率与质量。