网络异常
请检查网络设置后重试
重新加载
搜索推荐算法技术交流
81
成员
登录后加入频道即可发帖
0/1000
不选择版块
发表
全部
论文分享
Agent
精华
idea讨论
闲聊八卦
李贤
频道主
4小时前
搜推论文简报 | RCLRec
💡 RCLRec通过反向课程学习增强生成式推荐中稀疏转化的建模,显著提升转化预测性能及业务指标。
📖 研究背景
在大规模推荐系统中,转化目标稀疏导致优化困难,生成式推荐通过统一令牌序列缓解数据稀疏性,但转化信号仍建模不足。现有行为感知生成式推荐模型编码行为类型并使用行为感知注意力,但仍依赖标准注意力,未提供额外监督。本论文提出RCLRec框架,引入反向课程学习构建转化相关历史项子序列作为解码器前缀,提供实例特定中间监督,并设计课程质量感知损失确保课程信息量,从而缓解转化稀疏性并聚焦用户关键决策过程。实验在离线数据集和在线A/B测试中验证了RCLRec的优越性能,线上部署带来广告收入提升2.09%和订单量提升1.86%。
点赞
评论
分享
Crépuscule
管理员
20小时前
AI圈大小事之Claude code 源码泄露事件(详细版)
🔥 Claude Code 源码泄露事件
---
### 📅 事件时间
2026年3月31日
### 🔍 泄露原因
Anthropic 在发布 Claude Code 的 npm 包时,意外包含了一个 59.8MB 的 source map 文件(.map 文件),这个文件将压缩后的代码完整映射回原始 TypeScript 源码,导致 1,900+ 个源文件,共 51.2 万行代码被公开暴露。
### 🕵️ 发现者
点赞
1
分享
Crépuscule
管理员
20小时前
AI圈大小事之Claude code 被开源
🔍 Claude Code 源码泄露事件
---
**发生了什么?**
Anthropic 在发布 Claude Code 的 npm 包时,意外把 source map 文件(59.8MB)一起发布了,相当于把压缩后的代码完整还原回原始 TypeScript 源码。
**泄露规模**
- 1,900+ 个文件
- 51.2万行代码
- 技术栈:TypeScript + Bun + React + Ink
**影响**
3
评论
分享
Crépuscule
管理员
20小时前
字节开源框架 DeerFlow技术解析
来自Claude Opus 4.6解读
#AI
#Agent
#大模型
#技术分享
共10图
点赞
评论
分享
李贤
频道主
1天前
搜推论文简报 | SIDReasoner: 推理增强的生成式推荐
💡 提出SIDReasoner框架,通过增强语义ID与语言对齐和结果驱动优化,实现高效推理增强的生成式推荐,提升准确性和解释性。
📖 研究背景
生成式推荐近期利用预训练大语言模型,通过将序列推荐建模为在包含语言令牌和语义ID的统一令牌空间上的自回归生成任务来提升性能,其中语义ID是项目的紧凑离散序列表示,支持高效解码和知识融合。然而,基于语义ID的推理仍面临挑战,因为项目令牌对模型无原生意义,且推荐导向的推理难以评估和监督稀缺。为解决此问题,本论文提出SIDReasoner框架,核心贡献在于通过加强语义ID与语言的对齐来解锁可转移的大语言模型推理能力,而非依赖大量推荐特定推理数据,具体包括利用教师模型合成丰富语义ID中心语料进行多任务对齐训练,以及基于对齐结果采用结果驱动的强化优化引导模型探索有效推理轨迹。实验在三个真实数据集上验证了该方法的有效性,不仅提升了推荐准确性,还展现出大推理模型在生成式推荐中的潜力,包括改进解释性和跨领域泛化能力。
点赞
评论
分享
李贤
频道主
2天前
搜推论文简报 | Agentic Recommender Systems
💡 提出代理推荐系统框架,通过代理化和自进化机制实现推荐系统的动态自适应与持续改进。
📖 研究背景
研究背景:大规模工业推荐系统通常采用固定多阶段流水线(如检索、排序、重排序),从协同过滤到深度学习再到预训练模型演变,但本质是静态设计,模型作为黑盒依赖人工假设和工程调整,难以在异构数据和多目标业务约束下扩展。核心贡献:提出代理推荐系统(Agentic Recommender Systems),将关键模块重组为代理,代理需满足功能闭环、独立评估和可进化决策空间条件;引入两种自进化机制——在定义动作空间中基于强化学习的优化和在开放设计空间中基于大语言模型的架构与训练方案生成选择;区分单个代理的个体进化和多个代理选择与连接的组合进化,并使用分层奖励设计(内层/外层)耦合局部优化与全局业务目标,为静态流水线向自进化系统转变提供框架蓝图。实验结论:论文为概念性框架,未提供具体实验数据或定量结果,但讨论了框架在促进推荐系统动态自适应、降低手动调优成本、提升多目标优化能力方面的潜在优势。
点赞
评论
分享
李贤
频道主
3天前
搜推论文简报 | KARMA
💡 KARMA通过将语义重构作为训练时正则化器,解决了LLMs在个性化搜索中的知识-行动差距,提升了系统性能。
📖 研究背景
个性化搜索系统常基于用户反馈优化排序模型,但过度依赖记忆特征(如商品ID)导致语义泛化能力不足,尤其在稀疏反馈场景下表现下降。大型语言模型虽具深层语义知识,但直接微调于个性化任务易引发语义崩溃,如注意力下沉,原因是知识-行动差距:保留预训练语义与对齐个性化行为的冲突。本文提出KARMA框架,将语义重构作为训练时正则化器,通过历史条件语义生成和嵌入条件语义重构优化下一兴趣嵌入,以弥合此差距。在淘宝搜索系统中,KARMA缓解了语义崩溃,提升行动指标和语义保真度;消融实验显示语义可解码性带来显著增益,离线指标如CTR AUC、HR提升,在线部署后项目点击量增长。
点赞
评论
分享
李贤
频道主
4天前
搜推论文简报 | MCLMR
💡 MCLMR通过因果干预、自适应聚合和偏差感知对比学习,为多行为推荐提供了一个通用、有效的去偏框架。
📖 研究背景
多行为推荐通过利用多种用户交互类型(如浏览、点击、购买)来丰富偏好建模和缓解传统单行为方法的数据稀疏性问题,但现有方法面临缺乏原则性框架来建模用户行为习惯和物品多行为分布的复杂混淆效应、难以有效聚合异构辅助行为、以及未能对齐跨行为表示并考虑偏差扭曲等挑战。为解决这些局限性,本文提出了MCLMR,一个模型无关的因果学习框架,可无缝集成到各种多行为推荐架构中;它首先构建因果图建模混淆效应并执行干预以进行无偏偏好估计,然后基于专家混合的自适应聚合模块动态融合辅助行为信息,以及偏差感知对比学习模块以偏差感知方式对齐跨行为表示。在三个真实世界数据集上的实验表明,MCLMR在各种基线模型上实现了显著的性能提升,验证了其有效性和通用性。
点赞
评论
分享
李贤
频道主
4天前
搜推论文简报 | LLM增强搜索引擎对黑帽SEO攻击的韧性研究
💡 本文首次系统研究了针对LLM增强搜索引擎(LLMSE)的SEO攻击,发现LLMSE可拦截99.78%以上的传统SEO攻击,但仍对新型LLMSEO攻击存在脆弱性。
📖 研究背景
大语言模型增强搜索引擎(LLMSE,如ChatGPT、Gemini等)将网页级搜索与AI摘要能力相结合,革新了信息检索范式。然而,面对成熟的黑帽SEO攻击,这些系统的安全性尚未被充分研究。本文针对十款主流LLMSE产品,构建了包含1000个真实黑帽SEO网站的基准SEO-Bench进行系统评估。
1
评论
分享
李贤
频道主
5天前
搜推论文简报 | 快手长尾短视频搜索的无偏多模态重排序框架
💡 快手提出基于 LLM 的多模态重排序框架,通过体验分估计替代稀疏用户行为数据,有效缓解长尾查询的马太效应,提升低曝光优质内容排名。
📖 研究背景
快手每天服务数亿次搜索请求。长尾查询由于用户行为稀疏,模型容易放大低质内容(标题党、浅层内容),导致严重的马太效应。LLM 的世界知识为内容质量评估提供了新范式——无需依赖用户交互即可判断内容质量。
🔬 核心创新
提出两阶段训练的多模态体验分模型:
• Stage 1:基于多模态证据(文本+语音+视觉)构建高质量标注,进行监督微调
点赞
评论
分享
公告
暂无公告
直播
暂无直播