neko
deepin
18 hours ago Ecological co-builder
Q&A Team
看起来很有前景
Reply Like 0 View the author
看起来很有前景
可靠的利用大模型的很好的尝试,点赞
一个一个地把难题啃下来,生态就建好了。
想法和产品设计都不错,单词发音有点怪。 内容是自动抓取吗? 还是要重运营?
show me the prompt !
这个相当的不错
,完全可能演变成一个后续的商业产品😄
Popular Ranking
ChangePopular Events
More
写在前面:英语阅读的“死锁”与“重构”
作为一名开发者,我相信很多人跟我有一样的困惑: 我们可以熟练地阅读 Stack Overflow、GitHub Issues 甚至是晦涩的 API 文档(Technical English),但一旦试图阅读 The Verge、Bloomberg 或者 New York Times(Real World English)时,却往往坚持不过三分钟。
为什么?因为技术文档的语法结构是线性的、逻辑是收敛的,且词汇高度重通过复。而真实世界的新闻充满了长难句、文化隐喻、俚语和低频词。
直接啃原版新闻,难度相当于刚学完 Python 基础语法,就让你去读 Linux 内核源码——这是认知过载(Cognitive Overload)。
所以,作为一名写了多年代码的开发者,我认为我们这个群体在英语学习上存在一个有趣的“死锁(Deadlock)”现象:
TODO状态。我意识到,这本质上不是我们“算法(智商)”的问题,而是数据源****(语料)的难度与我们的处理能力不匹配。
根据克拉申的“i+1 可理解性输入”理论,最有效的学习不是去硬啃“屎山代码”(i+10),而是阅读那些经过重构的、逻辑清晰的源码(i+1)。
既然 LLM(大模型)具备了极强的 NLP 能力,我决定自己开发一个工具,对真实世界的英语新闻进行 Refactoring(重构)。这就是 News In Simple 的诞生逻辑。
产品链接:https://newsinsimple.com/
(独立开发,目前全免费,纯粹为了解决我和身边朋友的痛点)
一、 产品哲学:把新闻当成“Legacy Code”来处理
News In Simple 的核心理念不是“翻译”,而是“降维”。
如果把一篇高难度的英文新闻比作一段复杂的“屎山代码”,我的工作就是利用 LLM(大模型)对它进行 Refactoring(重构):保持核心逻辑(新闻事实)不变,但是简化语法结构,降低耦合度(长难句拆分),替换复杂的依赖库(生僻词)。
1. 分级重构(Graded Refactoring)
对于一篇复杂的原版新闻,我将其视为一段充满了
goto语句和复杂依赖的 Legacy Code。我的系统通过 Gemini 模型,将其重构为三个版本:2. 语境感知(Context Awareness) vs 静态查词
传统的划词翻译 API,就像是查阅静态的
man手册。但在新闻中,单词的含义是动态绑定(Dynamic Binding)的。
在 News In Simple 中,我利用 LLM 的 Context Window,提取的 Key Vocabulary 不仅仅是单词本身,而是包含了该单词在当前新闻上下文中的具体实例化对象。这就像 IDE 里的“跳转到定义”,直接把你带到了具体的实现逻辑中,而不是泛泛的文档。
二、 技术深潜:Prompt Engineering 的那些坑
作为一个基于 Next.js + Vercel + Gemini 的 AI Wrapper 产品,核心壁垒其实在于 Prompt 的调试。
在开发过程中,我遇到了几个典型的技术挑战:
1. 如何让 AI 稳定输出“分级内容”?
最开始,我简单地告诉 AI:“请把这篇文章改成简单版本”。结果非常不稳定:有时改得太短,有时改得像儿歌,有时甚至幻觉出了新闻里没有的细节。
为了解决这个问题,我经过了数十次迭代,总结了一些经验:
Sentence length must be under 15 words,Avoid passive voice,Use vocabulary from the CEFR A2 list.Strictly adhere to the factual information provided in the source text. Do not hallucinate or add personal opinions.2. 难度梯度的量化 (Quantifying Difficulty)
什么是“简单”?AI 不理解“简单”。
解决方案:将语言学标准转化为 Prompt 指令。
3. 结构化输出 (JSON Mode)
为了让前端能优雅地渲染单词卡片和 Quiz,我强制模型输出严格的 JSON 格式。这里踩了很多坑,最终通过 Few-Shot Learning(给模型几个完美的 JSON 示例)解决了格式不稳定的问题。
4.词汇提取的“语境感知”
传统的查词 API 只是机械地返回字典释义。但在新闻中,同一个词 Run 在 "Run a company" 和 "Run for president" 中意思完全不同。
在 News In Simple 中,我利用 LLM 的 Context Window(上下文窗口),要求它“In-Context Learning”。生成的 Key Vocabulary 列表,不仅仅是单词,还包含了该单词在当前新闻语境下的具体含义。这就像是 IDE 里的
Go to Definition,直接跳到了具体的实现,而不是泛泛的文档。三、 未来规划:重构“查字典”的体验 (Roadmap)
目前的 News In Simple 只是完成了“阅读流”的闭环(MVP)。接下来,我真正想做的是颠覆“背单词”这个枯燥的流程。
我正在开发的 Word Insight 模块,基于我对记忆原理的理解,试图解决一个问题:为什么我们背了单词书记不住,但看美剧学的词忘不掉?
答案是:情绪价值(Emotion) 和 情境记忆(Episodic Memory)。
未来的 Word Insight 将包含:
四、 独立开发者的碎碎念
做这个项目,本质上是我对自己学习方法的一次数字化沉淀。
作为技术人员,我们习惯了用技术去优化系统的 QPS,优化数据库的索引。但我们很少想过,用技术去优化大脑的“缓存命中率”和“信息吞吐量”。
News In Simple 不是一个单纯的 AI 套壳,它是我想象中的“下一代语言学习 IDE”。
目前产品完全免费,也没有任何商业推广。
我把它发在 CSDN,是因为我觉得这里的用户——你们,是最能理解这个产品逻辑,也最能提出硬核建议的一群人。
传送门:https://newsinsimple.com/
欢迎大家在评论区 Review 我的产品。
不论是关于 Next.js 的技术探讨,还是关于 Prompt 设计的优化建议,甚至是 英语学习的方法论,都非常欢迎交流。
Let's refactor our English learning process together.