模型

AndroidGen

AndroidGen 是一个基于大语言模型(LLM)的智能代理框架,专注于提升 Agent 在数据稀缺环境下的任务执行能力。它通过无监督方式收集用户操作轨迹并进行训练,结合 ExpSearch、ReflectPlan、AutoCheck 和 StepCritic 四个核心模块,增强任务规划、执行和评估能力。该框架在 AndroidWorld 和 AitW 基准测试中表现出色,适用于自动化任务处理、

元象大模型XChat

元象大模型XChat是元象XVERSE推出的高性能AI产品,它通过自研技术,能够满足不同复杂度任务的需求,并在中文领域表现突出。

JoyVASA

JoyVASA是一个基于扩散模型的音频驱动数字人头项目,能够生成与音频同步的面部动态和头部运动。其主要功能包括唇形同步、表情控制及动物面部动画生成,支持多语言和跨物种动画化。项目采用两阶段训练方法,结合解耦面部表示与扩散模型技术,生成高质量动画视频,广泛应用于虚拟助手、娱乐媒体、教育、广告等多个领域。

Gemma 2

Gemma 2是一款由谷歌DeepMind开发的开源人工智能模型,提供90亿和270亿参数版本。它具有卓越的性能、高效的推理速度和广泛的硬件兼容性,适用于各种应用场景。Gemma 2不仅支持多种AI框架,还提供了丰富的资源和工具,以支持开发者和研究人员负责任地构建和部署AI。

AniPortrait

AniPortrait是一款由腾讯开源的AI视频生成框架,通过音频和一张参考肖像图片生成高质量的动画。该框架包含两个核心模块:Audio2Lmk模块将音频转换为2D面部标记点,而Lmk2Video模块则基于这些标记点生成连贯且逼真的视频动画。AniPortrait以其高质量的视觉效果、时间一致性和灵活的编辑能力著称,能够精确捕捉面部表情和嘴唇动作。

PixVerse V2.5

PixVerse V2.5是一款由爱诗科技开发的AI视频生成工具,其主要功能包括模型优化、提高生成速度、支持4K分辨率、Performance模式、运动笔刷、运镜控制以及文本内容生成。这些功能共同提升了视频创作的动态效果和专业度,使得用户能够更快地生成高质量视频内容。PixVerse V2.5支持多种语言界面,适用于创意视频制作、广告和营销、教育和培训、社交媒体内容以及游戏和动画制作等领域。

Moshi

Moshi是一款由法国Kyutai实验室开发的端到端实时音频多模态AI模型,具备听、说、看的能力,并能模拟70种不同的情绪和风格进行交流。Moshi具有多模态交互、情绪和风格表达、实时响应低延迟、语音理解与生成、文本和音频混合预训练以及本地设备运行等特点。它支持英语和法语,主要应用于虚拟助手、客户服务、语言学习、内容创作、辅助残障人士、研究和开发、娱乐和游戏等领域。

探一下

探一下是一款依托于多模态大模型技术的AI视觉搜索工具,用户可通过其摄像头识别花草、宠物、潮玩等物体,获取旅游讲解、商品药品详情等信息,同时具备趣味解读图片的功能,支持文字翻译与场景触发滤镜,适用于多种生活场景。 ---

书生·浦语

书生·浦语是上海人工智能实验室开发的一款开源AI大模型,具备卓越的推理能力和超长文本处理功能。该模型能够处理高达一百万词元的文本输入,支持联网搜索并整合信息,显著提升了处理复杂问题的能力。书生·浦语秉持开源理念,免费提供商用授权,旨在通过高质量开源资源赋能创新,推动AI技术的发展和应用。它支持多种功能,包括超长文本处理、增强推理能力、自主信息搜索与整合等,并提供了多样化的参数版本,以满足不同的应用

EasyControl

EasyControl是基于扩散变换器(DiT)架构的高效控制框架,采用轻量级LoRA模块实现多条件控制,支持图像生成、风格转换、动画制作等任务。其具备位置感知训练范式和因果注意力机制,优化计算效率,提升生成质量与灵活性,适用于多种图像处理场景。