评估

微点智能考试系统

高效有趣的智能考试系统,用人工智能将任何内容变成有趣的考试,让企业组织的信息传递和培训学习更高效。

Crawl4LLM

Crawl4LLM是由清华与CMU联合开发的智能爬虫系统,通过评估网页对大语言模型预训练的价值,提升数据获取效率。支持多种爬取模式,具备状态保存、数据可视化功能,并与DCLM框架兼容。采用多维度评分机制优化爬取策略,减少低价值内容抓取,降低对网站负担,适用于LLM预训练、数据集构建等场景。

天目

天目是一款由人民网开发的AI内容检测工具,能够准确识别文本中由人工智能生成的内容,准确率达到93%。该工具支持DOC和TXT格式文件,能够处理高达10万字的文本。它通过高亮显示AI生成的句段,并生成PDF格式的检测报告,方便用户查阅和分享。同时,天目承诺不保存任何用户数据,确保用户数据的安全与隐私。

LLM Course

一个关于LLMs课程的集合,包含学习路线图和Colab笔记本,帮助用户从基础到高级逐步掌握LLMs的知识和应用。

MMBench

MMBench-Video是一个由多家高校和机构联合开发的长视频多题问答基准测试平台,旨在全面评估大型视觉语言模型(LVLMs)在视频理解方面的能力。平台包含约600个YouTube视频片段,覆盖16个类别,并配备高质量的人工标注问答对。通过自动化评估机制,MMBench-Video能够有效提升评估的精度和效率,为模型优化和学术研究提供重要支持。

零克追踪

零克追踪​是专业的小红书笔记质量分析工具,可以对小红书笔记的推送人群,笔记的关键词和分类进行检测!

WiS

WiS是一个基于“谁是卧底”游戏规则的在线AI竞赛平台,专为评估和分析大型语言模型(LLMs)在多智能体系统中的行为而设计。平台提供统一的模型评估接口、实时排行榜、全面的行为评估功能以及详尽的数据可视化支持,旨在为研究人员和开发者提供一个直观且高效的工具,用于测试和优化智能体在复杂交互环境中的表现。

PromptBench

一个基于 Pytorch 的 Python 包,用于评估和理解大型语言模型的统一库。它为研究人员提供了用户友好的 API,以便对 LLM 进行评估。

ARCHITEChTURES

ARCHITEChTURES是一个基于AI的建筑设计平台,专注于自动化处理建筑设计中的重复性任务,如建模、测量和计算,以提高设计效率和质量。它支持多户型住宅建筑设计,提供CAD和BIM绘图功能,并具备测量、预算以及快速设计与共享能力。此外,平台还支持多种应用场景,包括可行性研究、场地规划、商业评估和概念迭代等。

VSI

VSI-Bench是一种用于评估多模态大型语言模型(MLLMs)视觉空间智能的基准测试工具,包含超过5000个问题-答案对,覆盖多种真实室内场景视频。其任务类型包括配置型任务、测量估计和时空任务,可全面评估模型的空间认知、理解和记忆能力,并提供标准化的测试集用于模型性能对比。 ---