type
status
date
slug
summary
tags
category
icon
password
Last edited time
Aug 13, 2024 06:18 AM
notion image
😀
DeepSeek-Coder-V2,Claude 3.5 Sonnet
 

📝 主旨内容

DeepSeek-Coder-V2 理科生

💡
2024-06-17 20:06 DeepSeek Coder V2开源发布,首超GPT4-Turbo的代码能力 模型、代码、论文均开源,免费商用,无需申请,官网免费体验

全球顶尖的代码、数学能力

💡
DeepSeek-Coder-V2沿用DeepSeek-V2 的模型结构,总参数236B,激活21B,在代码、数学的多个榜单上位居全球第二,介于最强闭源模型 GPT-4o 和 GPT-4-Turbo之间
notion image

国内第一梯队的通用能力

💡
在拥有世界前列的代码、数学能力的同时,DeepSeek-Coder-V2还具有良好的通用性能,在中英通用能力上位列国内第一梯队
notion image

与DeepSeek-V2的差异

💡
虽然 DeepSeek-Coder-V2 在评测中综合得分更高,但在实际应用中,两个模型各有所长。DeepSeek-V2是文科生,DeepSeek-Coder-V2是理科生,精通的技能点不同
notion image

支持HTML代码运行

💡
2024-06-22 00:49 DeepSeek Coder 支持html代码在线执行(致敬Claude3.5 Sonnet Artifacts功能)
notion image

Claude发布Claude 3.5 Sonnet 模型

💡
2024 年 6 月 21 日 官方号称各项指标表现优于 GPT-4o。对比Claude 3 Opus 运行速度是其的两倍,成本仅有五分之一。Claude 3.5 Sonnet 现在可以免费使用了。并且新增支持了Artifact功能,支持常见的html,css,js,svg的预览,还支持React,可惜不支持vue
notion image
notion image
notion image
notion image
 
创建一个演示中心极限定理的交互式应用程序(React)
创建一个演示中心极限定理的交互式应用程序(React)

OpenAI将在7月9日终止对部分地区提供API服务

💡
2024 年 6 月 25 日 没有提供服务的国家和地区不让用
notion image

ChatGPT Mac应用现已向所有用户开放

💡
2024 年 6 月 25 日 OpenAI的ChatGPT Mac应用自5月中旬首次发布后,现在已全面向所有用户开放,不再仅限于ChatGPT Plus订阅者。
用户可通过键盘快捷键Option + Space快速打开聊天界面,询问有关电子邮件、截图、网站和Mac上内容的问题。应用内置了语音模式、搜索功能,用户可以进行语音对话和浏览过去的对话记录。
notion image

GPT-4o-mini替代3.5

notion image

十五大门派围攻光明顶——GPT4o终被国产大模型干翻

notion image
notion image

谷歌发力,Gemini登顶

notion image

解放双手 全流程AI科研

AI-Scientist
SakanaAIUpdated Aug 14, 2024
牛津大学宣布世界首个用于自动研究和开放式发现的 AI “AI 科学家”正式发布并开源!
实现从构思、写代码、运行实验、总结结果、撰写整篇论文再到同行评审的端到端流程。
AI 科学家已经生成了 10 篇机器学习论文!
notion image
  1. DualScale Diffusion: Adaptive Feature Balancing for Low-Dimensional Generative Models
  1. Multi-scale Grid Noise Adaptation: Enhancing Diffusion Models For Low-dimensional Data
  1. GAN-Enhanced Diffusion: Boosting Sample Quality and Diversity
  1. DualDiff: Enhancing Mode Capture in Low-dimensional Diffusion Models via Dual-expert Denoising
  1. StyleFusion: Adaptive Multi-style Generation in Character-Level Language Models
  1. Adaptive Learning Rates for Transformers via Q-Learning
  1. Unlocking Grokking: A Comparative Study of Weight Initialization Strategies in Transformer Models
  1. Grokking Accelerated: Layer-wise Learning Rates for Transformer Generalization
  1. Grokking Through Compression: Unveiling Sudden Generalization via Minimal Description Length
  1. Accelerating Mathematical Insight: Boosting Grokking Through Strategic Data Augmentation
 
 

🤗 总结归纳

DeepSeek-Code与Claude 3.5 Sonnet在Artifacts上的比较

notion image
notion image

📎 参考文章

 
LeetCode第402场周赛题解多模态异常检测新范式——跨模态差异
Loading...