AI资讯新闻榜单内容搜索-LLM

AITNT
未登录
搜索: LLM

8卡32B模型超越o1预览版、DeepSeek V3,普林斯顿、北大提出层次化RL推理新范式

8卡32B模型超越o1预览版、DeepSeek V3,普林斯顿、北大提出层次化RL推理新范式
7039 AI技术研报
8卡32B模型超越o1预览版、DeepSeek V3,普林斯顿、北大提出层次化RL推理新范式

清华姚班校友等揭Transformer致命缺陷,OpenAI科学家紧急回应:学术界节奏太慢

清华姚班校友等揭Transformer致命缺陷,OpenAI科学家紧急回应:学术界节奏太慢
6781 AI技术研报
清华姚班校友等揭Transformer致命缺陷,OpenAI科学家紧急回应:学术界节奏太慢

人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率

人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率
6137 AI技术研报
人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率

DeepSeek-R1推理本地跑,7GB GPU体验啊哈时刻?GRPO内存暴降,GitHub超2万星

DeepSeek-R1推理本地跑,7GB GPU体验啊哈时刻?GRPO内存暴降,GitHub超2万星
10073 AI资讯
DeepSeek-R1推理本地跑,7GB GPU体验啊哈时刻?GRPO内存暴降,GitHub超2万星

DeepSeek用的GRPO占用大量内存?有人给出了些破解方法

DeepSeek用的GRPO占用大量内存?有人给出了些破解方法
7472 AI技术研报
DeepSeek用的GRPO占用大量内存?有人给出了些破解方法

将集体学习引入树搜索,新方法CoMCTS实现o1-like的推理与反思

将集体学习引入树搜索,新方法CoMCTS实现o1-like的推理与反思
7211 AI技术研报
将集体学习引入树搜索,新方法CoMCTS实现o1-like的推理与反思

LLaVA-Mini来了!每张图像所需视觉token压缩至1个,兼顾效率内存

LLaVA-Mini来了!每张图像所需视觉token压缩至1个,兼顾效率内存
4484 AI技术研报
LLaVA-Mini来了!每张图像所需视觉token压缩至1个,兼顾效率内存

o1开启LLM新范式,Ai2科学家解析背后秘籍:推理和强化学习是关键

o1开启LLM新范式,Ai2科学家解析背后秘籍:推理和强化学习是关键
7456 AI技术研报
o1开启LLM新范式,Ai2科学家解析背后秘籍:推理和强化学习是关键

米哈游腾讯投的AI独角兽火出圈,背后竟有心动的人?

米哈游腾讯投的AI独角兽火出圈,背后竟有心动的人?
6641 AI资讯
米哈游腾讯投的AI独角兽火出圈,背后竟有心动的人?

字节跳动BitsAI-CR:基于LLM的代码审查系统技术揭秘

字节跳动BitsAI-CR:基于LLM的代码审查系统技术揭秘
7598 AI技术研报
字节跳动BitsAI-CR:基于LLM的代码审查系统技术揭秘
上一页 当前第62页,共144页 下一页
沪ICP备2023015588号