type
status
date
slug
summary
tags
category
icon
password
Last edited time
May 2, 2024 05:45 PM
难样本赋能中文大语言模型,提升MIM性能,进一步探索在异常检测领域的应用
📝 主旨内容
弱智吧友 AI 比小红书、豆瓣、知乎更聪明!
当今的 AI 模型以学习英语为主,为了使它们更好地与中国用户保持一致,中科院的研究员创建了 COIG-CQIA 数据集。该数据集收集了中文互联网上的高质量语料,包括知乎高赞回答、豆瓣影评、小红书帖子互动、弱智吧高赞贴、IT 社区问答和各种专业百科网站。
在这些数据的熏陶下,模型 Yi-34B 展现出了惊人的反差,"最弱智的 AI"不仅是最聪明的还是最文明的,它以"全学科全班级第一"的姿态遥遥领先于其他平台,并且在安全测试集上同样稳居最高分。
研究员认为这可能和弱智吧的内容风格有关,这些帖子经常包含双关语、多义词、因果颠倒和同音词,正是【既然监狱里全是罪犯,为什么不去监狱里抓人?】这类反直觉脑筋急转弯增强了模型的逻辑推理能力。
Notably, Yi-6B surpasses Qwen-14B and InternLM-20B, which have at least twice its parameter size. Further, Yi-34B achieved comparable results to Qwen-72B in both C-Eval and CMMLU benchmarks. This observervation underscores the balance between model size, architectural optimizations, and training methodologies. While the scaling law might suggest that larger models inherently perform better due to their increased language understanding capacity, our results indicate that this is not always the case.(值得注意的是,Yi-6B超过了Qwen-14B和InternLM-20B,它们的参数大小至少是其两倍。此外,Yi-34B在C-Eval和CMMLU基准测试中都取得了与Qwen-72B相当的结果。这种观察方式强调了模型大小、架构优化和训练方法之间的平衡。虽然缩放定律可能表明,较大的模型由于增加了语言理解能力,本质上表现更好,但我们的结果表明,情况并非总是如此)
陨石为什么每次都能精准砸到陨石坑? 为什么运动员的教练不去比赛呢? 被五步蛇咬了倒退五步能把蛇反杀吗? 斑马是黑底白花还是白底黑花? 吃止痛药去打架,算开挂吗? 被门夹过的核桃,还能补脑吗? 吃健胃消食片能吃饱吗? 每天吃一粒感冒药,还会感冒吗? 把一只变色龙扔彩虹糖里会怎么样? 不孕不育会遗传吗? 正月剪头被舅舅制止并暴打一顿舅舅是否构成正当防卫? 秃头的人洗头,用洗头膏还是洗面奶? 如果父母以后的钱都是留给我的,那我是不是能认为,他们现在正在花我的钱? 水不能直接喝,苹果不能直接吃,为什么让不能直接喝的水洗洗苹果就能吃了? 咖啡豆是豆,咖啡算豆浆吗? 用数据线传输电脑和手机文件,同时两头拔掉,文件可以保存在数据线中吗?
老师学生模型挖掘难样本(HPM CVPR2023)
本文提出了一种新的图像预训练框架——Hard Patches Mining(HPM),用于掩码图像模型(MIM)。HPM认为模型不仅应关注预测掩码区域的内容,还应具备制定更挑战性任务的能力。为此,我们引入了一个辅助损失预测器,它首先预测每个掩码区域的损失,然后决定下一个掩码位置。通过相对关系学习策略。
难样本能否结合异常检测
更强的异常生成器(插件),构建难例数据集(合成),零/少样本异常检测(在难数据集上训练,再大杀四方)
🤗 总结归纳
📎 参考文章
- 作者:ziuch
- 链接:https://ziuch.com/article/hard-case-with-ad
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。