AI资讯新闻榜单内容搜索-LLM

AITNT
未登录
搜索: LLM

LLM为什么能替你操作电脑?4个关键技术让AI拥有"操作系统级"能力|Agent和工作流的区别就在这

LLM为什么能替你操作电脑?4个关键技术让AI拥有"操作系统级"能力|Agent和工作流的区别就在这
7715 AI技术研报
LLM为什么能替你操作电脑?4个关键技术让AI拥有"操作系统级"能力|Agent和工作流的区别就在这

图灵奖得主LeCun最后警告Meta!我搞了40年AI,大模型是死路

图灵奖得主LeCun最后警告Meta!我搞了40年AI,大模型是死路
9493 AI资讯
图灵奖得主LeCun最后警告Meta!我搞了40年AI,大模型是死路

破解多模态大模型“选择困难症”!内部决策机制首次揭秘:在冲突信息间疯狂"振荡"

破解多模态大模型“选择困难症”!内部决策机制首次揭秘:在冲突信息间疯狂"振荡"
8315 AI技术研报
破解多模态大模型“选择困难症”!内部决策机制首次揭秘:在冲突信息间疯狂"振荡"

Memory和RAG的区别在哪?用「上下文工程」做出个性化 AI(谷歌白皮书精读)

Memory和RAG的区别在哪?用「上下文工程」做出个性化 AI(谷歌白皮书精读)
7047 AI技术研报
Memory和RAG的区别在哪?用「上下文工程」做出个性化 AI(谷歌白皮书精读)

下一代目标检测模型:3B参数MLLM Rex-Omni首度超越Grounding DINO,统一10+视觉任务

下一代目标检测模型:3B参数MLLM Rex-Omni首度超越Grounding DINO,统一10+视觉任务
6454 AI技术研报
下一代目标检测模型:3B参数MLLM Rex-Omni首度超越Grounding DINO,统一10+视觉任务

2M大小模型定义表格理解极限,清华大学崔鹏团队开源LimiX-2M

2M大小模型定义表格理解极限,清华大学崔鹏团队开源LimiX-2M
9798 AI技术研报
2M大小模型定义表格理解极限,清华大学崔鹏团队开源LimiX-2M

跨层压缩隐藏状态同时加速TTFT和压缩KV cache!

跨层压缩隐藏状态同时加速TTFT和压缩KV cache!
9643 AI技术研报
跨层压缩隐藏状态同时加速TTFT和压缩KV cache!

让LLM像公司一样干活:微软把“思维并发”做成了协议,准确率更高、关键路径时延降28%

让LLM像公司一样干活:微软把“思维并发”做成了协议,准确率更高、关键路径时延降28%
9145 AI技术研报
让LLM像公司一样干活:微软把“思维并发”做成了协议,准确率更高、关键路径时延降28%

打破数据质量鸿沟!清华腾讯Bee项目发布1500万高质量数据集,刷新MLLM全栈开源SOTA

打破数据质量鸿沟!清华腾讯Bee项目发布1500万高质量数据集,刷新MLLM全栈开源SOTA
7993 AI技术研报
打破数据质量鸿沟!清华腾讯Bee项目发布1500万高质量数据集,刷新MLLM全栈开源SOTA

3A大作!阿里ROLL团队从基建->算法->机理,推动RL4LLM全栈协同优化

3A大作!阿里ROLL团队从基建->算法->机理,推动RL4LLM全栈协同优化
8988 AI技术研报
3A大作!阿里ROLL团队从基建->算法->机理,推动RL4LLM全栈协同优化
上一页 当前第11页,共143页 下一页
沪ICP备2023015588号