原文:Understanding Reasoning LLMs


This article describes the four main approaches to building reasoning models, or how we can enhance LLMs with reasoning capabilities. I hope this provides valuable insights and helps you navigate the rapidly evolving literature and hype surrounding this topic.

本文描述了构建推理模型的四种主要方法,或者说我们如何增强大型语言模型的推理能力。我希望这篇文章能提供有价值的见解,帮助您在快速发展的文献和围绕这个话题的炒作中找到方向。


In 2024, the LLM field saw increasing specialization. Beyond pre-training and fine-tuning, we witnessed the rise of specialized applications, from RAGs to code assistants. I expect this trend to accelerate in 2025, with an even greater emphasis on domain- and application-specific optimizations (i.e., “specializations”).

在 2024 年,大型语言模型领域见证了日益增长的专业化趋势。除了预训练和微调之外,我们还看到了专业应用的兴起,从 RAG(检索增强生成)到代码助手。我预计这种趋势将在 2025 年加速,更加强调特定领域和特定应用的优化(即“专业化”)。

阅读全文 »

首先,偷数据是不道德的,阿弥陀佛……

最近在研究 AI,涉及偷点儿数据存到知识库。

本来想抓某个公众号的,太麻烦了,查了一圈儿发现对方有个公开的飞书知识库,查了一圈儿发现没有太好的批量扒数据的方法,只有一个 cloud-document-converter 很强大,能下载单篇,可惜没有批量的功能。

正好,昨晚 Google 发布了 Gemini 2.0 Flash Thinking Experimental(以下简称 Gemini),之前试过和 Claude 结对编程(我提需求,Claude 写代码),正好试试编程效果。

结论:很好用,不输 chatGPT 的 4o 和 Claude。
最终代码放到了 github 上,仅供学习研究使用:feishu_batch_download,出了事儿概不负责,谁出卖我谁是 🐶
(背景:我做过两年研发,有点儿研发背景,后来很多年基本没写过代码,能勉强看懂,但写够呛)

我不是那些自媒体,就不吹牛逼了。

简单记录下过程和方法:

阅读全文 »
0%