AI 剪辑工具分析
主要用了两个:https://clip.opus.pro/
还有字节的https://www.capcut.com/
AI 剪辑工具分析
主要用了两个:https://clip.opus.pro/
还有字节的https://www.capcut.com/
使用 cursor 的一些小技巧
从模板开始,通过从 GitHub 或其他来源克隆模板来开始项目,以提供坚实的基础,Cursor 内部选择“从 Repo 开始”的选项
使用智能体模式,使用 Cursor 的 agent 模式(而不是普通模式)来通过自然语言命令创建、编辑和管理文件
擅长结合 perplexity 使用,比如说我希望用 perplexity 去搜索,提供 API 的代码和示例
在 Composer 中创建新对话,保持对话简短
不断的迭代和改进
语音转文本的工具也很好用,Whispr Flow
错误交给 agent 处理是一个很明智的选择
经常提交,并且规范的追踪记录,对 cursor 来说这是一个很好的习惯
持续部署项目,使用 Vercel
记录一些常用的并且有效的 prompt ,收集
#领域/使用技巧
酒精作用下产生的反应
酒精对大脑功能的抑制作用,前额叶是负责判断、决策和自控能力的区域。当这一部分功能受抑制时,人的理性判断能力和自我控制能力下降,从而可能无意识地说出平时压抑或隐藏的想法和情绪。
中国的发展要用代际的眼光去看待
中国大地上的事情是无穷无尽的,不要在乎一城一池的得失,要执着。
一个国家是由具体的人构成的,它由这些人创造,并且决定。只有一个国家能够拥有那些寻求真理的人,能够独立思考的人,能够记录真实的人,能够不计利害为这片土地付出的人,能够捍卫自己宪法权利的人,能够知道这个世界并不完美但仍不言乏力不言放弃的人。只有一个国家拥有这样的头脑和灵魂,我们才能说,我们为祖国骄傲。只有一个国家能够真正有这样头脑和灵魂。我们才能说我们有信心,让明天更好。
任何的机制和时代需要找其因果,我们抛开了改革开放的这个视角,改革开放的加速度其实是在2008年以后开始呈现出相对平稳、斜率下降的趋势,所以经济周期的中转点已经出现了,意识到经济是有周期的而不是无限增长的。
这代领导人是文革时期发展出来的领导人,人和制度是那个时代的产物,我们也能接受制度的倒退,相信下一代的共产党领导人的才华。
旁观者的视角
对你来说是你的经历,对我来说是我的人生。
很多事也许真是当局者迷而旁观者清。身在局中的人觉得好复杂好纠结……但其实跳到局外用最简单普世的道理就可以判断。
所以局中人往往不要轻易的否定旁观者的审视和视角。
灵魂伴侣
有个观点说爱情中大部分的灵魂伴侣都是有一方在向下兼容的。
一方的性格上可能更宽容,更能包容另一方,我对灵魂伴侣最本质的理解是一种在精神、情感和价值观上高度契合的深层关系。爱情的本质是两个人深度交流激励成长。
我说我的理解中爱情是两条独立平行线之间的交互,这两条“平行线”如何通过交流、理解和协作产生互动,从而形成一种有意义的联系。
相比较而言,向下兼容好像并不是很准确,不存在绝对的向下兼容,只是可能站在自己的视角下可能会觉得对方对带来的感受和包容程度非常高,实际上对方某一定程度上可能也会有这样的感受,但是我们没办法证明对方的意识存在。单方面的兼容不被理解这样的交互是很困难的。
其实从小到大,父母、老师不也都是这样的吗? 一直在包容我们罢了,交互的过程很重要,成长的过程也很重要。
MCP 协议模式整合
为什么需要 MCP 主要是三个因素: 1. 数据孤岛问题;2. 安全性问题;3. 统一的标准
架构模式是客户端 - 服务端模式:MCP Client 对应大模型;MCP Server 暴露外部数据和接口。
功能模块包括三种,每个 MCP Server 都可以根据实际需求暴露全部或部分模块: tools、prompt 和 resources
通讯机制选择的是 JSON-RPC 2.0,Anthropic 及社区已经提供了基于 Python、TypeScript、Golang 等语言的 MCP Server 实现
Claude computer use 能力
Manus的核心架构与 Anthropic的“ComputerUse”高度相似,均依赖多代理虚拟机环境完成任务。
我的人生经验: 人一定要做自己真正热爱的事情。
Manus 的思考
朋友圈很多的关于炒 Manus 的现象,针对 manus 的一些思考。Agent 领域迎来了巨大的突破。和传统的 chat 模式的区别是什么?
chat -> message
chat -> action
AI 现在能真的帮你行动去得到结果了,而不是仅仅给出一个答案。
Manus 团队的突出点,工程能力非常强,另外是通用 agent 第一个吃螃蟹的人,确实效果非常好,相比较 openai operator 也非常的平民化。在创新上面,其实并没有哪些创新壁垒,这个形态其实能力是compute use + 虚拟机 + artifacts + 内置一批agent的综合产物,Claude compute use 赌对了。
Manus 这款说是全球第一款通用 AI Agent有点捧杀,毕竟之前还有AutoGPT,BabyAGI,这些都能算是「通用」的框架,另外 OpenAI 的 operator, deep research 也是通用的类型 agent。
类似于通用 Manus 并没有太大的护城河,可以通过工程能力推起来,最近OpenHands 项目就是一个例子,往往通用 agent 要么是 LLM 厂商模型内化,要么是开源堆起来生态的优势。
浏览器比较收敛,相比较操作电脑来说,不容易造成死循环,浏览器的大量的 GitHub 开源代码,端到端测试工具系统成熟,另外输入和输出明确,很容易设计奖励系统。
市场火热的原因分析:
确实是真正落地,并且可以解决实际问题的。
模型和业务之间的最后一公里,传统的大模型虽然在对话和内容上表现的很优秀,但是还是缺少operator ,openai operator又喜欢藏着闷着干
舆论红利,市场的稀缺性,再加上 "国运红利,之前各种 小红书、ds 等爆火",对于现在来说,效果上市场必然会引起巨大的反响,另外包括创业者和互联网从业者对 agent 的形态的期望值过高。但是也奇怪,Manus 全英文,完全面对的是海外的用户,只能说国内的舆论效应还挺离谱。
炒作嫌疑,自媒体的动作很奇怪,大批量的自媒体抢在科技人员前面做测试评价,感觉是厂家 PR,agent 很大程度上还是依赖基础模型的能力提升。
Agent OS present and future
当前实践的方案:
deep research 也会有一个结构树,是对这一类场景的操作结构化表现,模型和 API agent 化方式调用,然后在 while 循环中搜索 + 读取 + 推理。
Computer Use 的功能,它可以读取屏幕截图、移动光标、点击按钮和输入文本,从而自动完成诸如填写表格、查找信息、规划路线甚至订购外卖等任务。能想到一个很大的场景是操作浏览器的场景,claude 可以在浏览器中操作光标、点击相关的位置,输入信息使用虚拟键盘,AI 可以捕捉屏幕分析,也可以用各种的标准工具和软件程序
我自己的分析理解,其实考虑到未来的软件形态,我更倾向于的逻辑关系是:
每一个 APP 中有一个或者多个 agent,APP 只是作为一个交互的窗口
一个 agent OS 可以管理很多个 agent ,这种形态还没确定,我想到了两种,一种是和操作系统保持逻辑关系,一个操作系统下维护者一个 agent OS ,可以去调度所有的 APP。还有一种是一个统一的规范调度平台控制
APP 每一次去调度所有的 agent 去完成任务,甚至有可能通过其他的 APP 中的 agent 发送请求,当然也有可能是 agent OS 去调度不同的 app 中的 agent 去完成对应的任务和需求。
agent 更像是一个服务,单独的发布,只是相比较是一个拥有智能的服务,这部分需要规范和模板
agent 分层逻辑: 应用层 、内核层、硬件层。
ref: https://sierra.ai/platform
https://www.alan.app/#:~:text=Controllable%20AI
https://github.com/All-Hands-AI/OpenHands
一些预测
消费级领域可能出现赢家通吃,但是企业端更丰富的定制化往往不会出现单一产品或平台主导整个领域
商业模式的转变可能比技术趋势的改变更有预测价值
有些市场是能容忍很多赢家的,比如说云,这个市场足够大。
agent 管理器形式,不仅仅是一个聊天界面。是一个比聊天界面更智能的东西来管理所有agent及其对话
未来的三大场景,AI、量子计算、混合场景(临场感-或者元宇宙)。
影响超人智能的是法律的约束,需要建立真正的信任
agent OS 运行沙盒的权限的保证,不能超过某一个权限,这是一个要求
认知劳动不是一成不变的,就像之前说的那样,失业后也会有新的职业体系重构,上了一层的认知劳动而已,所以宏观上来说它们会重新定义认知劳动的边界,而不是让所有认知劳动完全消失,人机协同的时代越发临近。
从 Jasper 到 ChatGPT,再到 Monica 以及 Console,系统将不断融合工具调用、云端执行与自然交互
推理模型的未来场景
结合的是快思考和蛮思考,人类的场景,包括强化学习,以及大模型的特性:
处理模糊或者不完整的信息,简而言之就是不完整的 prompt 和意图,推理模型慢慢推理出来
海量信息找关键的信息:尤其是大量的信息中,因为泛化能力很强,这是 RL 擅长的。无监督学习打好地基,SFT 负责记住细节,而 RL 则帮助房子适应不同的环境。
从海量数据中找出联系和微妙之处
多步骤的推理策划,这个太擅长了,充当策划者。 然后普通的模型去做执行者,这个字啊应用中有很多的场景。
视觉推理,不仅仅是文本,图片也能分析模糊的图像
审查、改进、调试代码质量,对执行速度不需要很敏感的代码我觉得可以推理一下
观点人人都有,经验是宝贵的
信息时代,网上的信息和观点太多了,给我爸打电话,我爸最后又给我灌输了一个观点,说是我哥给他儿子辅导作业,然后他儿子不会做,他说了一句话让我爸后面思考还蛮有道理的,说是不会做的不做,选自己会做的做就行。
我说这个世界上的观点太多了,观点人人都有,但是观点是来源于自己的人生经验,经验是原始的,越是一手的经验越是更能触动别人,感性原料,引发人思考。成长是自己的路,观点更像是人早期的价值观和行为指南,亲身经历是我们不断修正和完善自我认知的重要过程。
父母的经验也是有时间窗口的,观点更是没办法直接套用,我说我从中学习的是每个人在不断经历和实践中才能形成独到的人生见解,更懂得尊重和理解别人的生活。
所以不要害怕我去成长,也不要担心孩子的成长偏离自己的经验。
RFT 的思考
定义: 在SFT的基础上,通过强化学习的方法进一步优化模型,通常利用奖励信号(例如人类反馈生成的奖励)来引导模型生成更加符合用户期望和实际需求的输出。
几个最核心的点,预训练模型大量的样本输出后,关键在于筛选过程,某种筛选机制(人或者某个系统)选出高质量的样本。这个过程可以显著提高模型的性能。
所以 RFT 在生成路径中筛选可以正确推导出问题答案的推理路径,包括不同的计算过程和不同的表达方式的路径。
引入了多样化 的推理路径,其实也是提高模型在没见过问题上的泛化能力。
AI 应用场景的普适性思考
应用场景 2025 又被激活了一样,大批的项目又一次开启的大量的思考。
Deep Research 的 Agent 形态在某一定的范围内也是具有普适性的,观察大量的研究员、很多人需要做大量在线研究或需要外部上下文的任务,这需要很强的推理能力和分辨信息源的能力,同时也需要创造力。很明显,检索问题,深入追问,深度推理,这是一个非常的场景,并且是以前的 chat 模式解决的话很累,需要频繁的去搜索追问。本质来说: 解决通过大量的时间去搜索和整理信息的过程。这是一个通用的能力,具有普适性。
我们总认为自己写的代码比模型更聪明,但随着领域发展,模型往往能找到比人类更好的解决方案,尽可能不要让一些东西固定下来,而是尝试让模型自己去学习。
数据是企业生存的红线,deep research 也像我们证明了这一点。
2025 是 agent 的一年,我们在反思 agent 会如何发展, 以及 RL 在 2025 agent 中发挥到什么样的作用?
ref: https://www.youtube.com/watch?v=bNEvJYzoa8A
幻觉hallucination处理
目前阶段解决幻觉的方法:
知识蒸馏和软标签可以减低幻觉,知识蒸馏让教师模型提供概率分布形式的软标签来微调学生模型。
强化学习中奖励模型可以引导 LLM 诚实回答
RAG 也是有效手段,业界普遍的认为是最有效的手段
链式验证(CoVe) 让模型先生成初始回答,再规划若干事实核查问题,逐一回答这些问题,并根据核查结果修正原回答,可以纠正自己的错误
prompt 的自我校验,引导模型自我检查输出。例如,在生成答案后追加诸如“请检查以上回答中是否有不确定的地方,如有请引用可靠资料”的指令,促使模型二次思考并给出依据或者修改答案。
工具调用,很明显针对一些固定程序的问题(计算),以及实时性的问题(搜索)用工具很好的解决。
解码策略优化,降低温度、采用贪心或束搜索而非随机采样,以提高输出可靠性
微调解决,阶段中加入大量高质量、事实准确的案例,让模型学会在不确定时保持谨慎
我对幻觉的理解:
现在模型幻觉可以在产品层面被控制到可接受的范围,在不同的领域对幻觉的要求也不是单一的:
开放的领域: 比如说知识领域,目前的 AI 最主要的领域,一般都最好设计拒答还有检索增强的逻辑,还有一个聪明的测试方法,可以让两个或者多个模型交叉验证去得到正确的信息。
创作: 暂时没想到坏处,温度升高,感觉更有利于发散。
专业领域:比较常见的场景,微调 + 工具验证方法,之前说到过强化微调,其实专业领域中短期我更看好的场景是交互逻辑,超人概念。
ref: https://lilianweng.github.io/posts/2024-07-07-hallucination/#:~:text=balanced%20results%2C%20especially%20in%20terms,metrics%2C%20compared%20to%20two%20baselines
Agent 形态
大家都在探索 Agent 的路上,简单的 Agent 产品形态好像也就无非是 auto-agent
Agent 和 RL 的结合,deep research 好像验证了这条路的可行性。
ref: auto-gpt: https://github.com/Significant-Gravitas/AutoGPT
agent list: https://github.com/e2b-dev/awesome-ai-agents
如何理解 RFT 的策略
监督式微调的优势: deepseek R1 预训练也用到了,在复制输入文本或图像中的特征方面非常强大,特别适合用来改变模型的语气、风格或响应格式。
强化学习微调会模型在自定义领域中以全新的方式进行推理,并且学习能力超级强。
强化模型的微调是基于人类的偏好和规则定义模型,让其输出符合偏好和价值准则,首次让开发者、研究人员和机器学习工程师能够使用强化学习来创建专家模型,使其能够在特定领域的任务中出类拔萃,这个过程模型会自动的调整学习和思考的方式。
相比较而言,强化模型微调跟适合推理模型来说,简单,只需要几十个用例就能产生非常好的效果。而且不仅仅调整的是模型的 output 的逻辑,还有模型的思考推理的逻辑过程。
相比较 deepseek 的评分的简单逻辑,这里又可以思考用 AI 评分器。
对 web3 的深度的理解
区块链衍生出来很多的技术,但是就 web3 发展来说,最主要的就是智能合约,智能合约存储在区块链上,充当自动化的业务逻辑,满足条件即可执行。web3 的形态理解为社区驱动,自给自足经济形态。
数字货币的成长周期分析: 创建 -> 成长 —> 投机 -> 泡沫 -> 调整。
货币的价格完全是由市场决定的,货币也是这样,新币旧币都满足 需求旺盛 + 供应有限 = 市场增长。比特币有上限,且 4year/2,稀缺性递增资产。
经济学的更傻理论也决定了市场只要能找到愿出更高价的接盘者,即使资产价格不合理也有人愿买,直到市场找不到“更傻的人”时泡沫破裂。
多模态 & 跨领域思考
大模型平台 + 领域微调 + 知识知识蒸馏,微调未来的趋势可能是领域监督微调+参数高效微调(如 LoRA)
文本领域 -> 多模态是一种趋势,越来越注重的是人机交互,大批量的交互工具来解决这个问题,比如说 cursor,扩展语音、视频等多模态的也是趋势,AI 境界为全感官 AI 。
跨领域知识整合也很重要,更多复杂的现实问题往往依赖于不同专业领域的知识融会贯通。
模块化趋势或许会借鉴 Mixture-of-Experts(MOE 专家混合)等架构,让不同部分专攻不同任务,从而提升整体效率和表现。这样的方式也可以和不同领域的知识链接或者结合起来。
针对小模型产生的效果来说,蒸馏的效果要比直接强化模型产生的效果更好,并且更节约成本。蒸馏技术能够将这些能力有效转移到结构较小、计算效率更高的小模型上,从而使得小模型在实际应用中也能达到较高的性能水平。
DeepSeek R1 的设计论文思考
工程思考
架构上的工程意义要好于算法意义,工程上提供了很多的参考价值。
设计思考
强大模型蒸馏可以得到非常不错的效果
要超越智能的界线还是需要强大的基础模型和更大规模的强化学习
推理大模型更倾向于在回答问题前将问题分解为更小的步骤
仅靠强化学习,不经监督微调,大模型也能涌现强大的推理技能。
给模型一些参考的的思考笔记也很重要,监督微调一部分可以解决输出的思考过程可读性差、偶尔中英混杂问题。
最小干预模板指导模型自由探索不同的解决问题的思路,不限定思考方法,可能会给人带来很多的惊喜。
简单直接的奖励方式: 准确度奖励(数学问题的回答) + 格式奖励 (易于理解的思维链)思考过程”放在特定的标签(如 <think>...</think>)内,答案放在 <answer>...</answer> 内,不需要额外训练一个独立的奖励模型,感觉就像固定的高考机制筛选一样 .... 简单有效。
R1 同时公开了基于R1蒸馏的六个小模型 ,小模型也具备了一定推理能力,某些场景下甚至超过未经蒸馏直接强化学习的小模型 ,给了未来的模型的场景一些思考。知识蒸馏 + 强化模型,小模型在很多的应用场景下有出乎意料的效果。
ChatGPT Deep Research 和 ChatGPT4.5 分析
4.5 是最后一代推理模型了,GPT 4.5 没有实现 SOTA 智能(目标应该也不是),而是在特定条件下(预训练 Scaling Law 扩展无监督学习路线)实现了更好的人机协作体验
人机结合的部分:
情商更高,回复更聪明简短,能理解暗示
对话能力更强,回答更温柔,有条理
审美和创造力更强
会基于 4.5 做推理扩展,实现预训练无监督学习+后训练推理拓展结合的效果最大化,应该就是混合推理模型 GPT-5了,GPT4.5 的效果并不会有很大的明显进步,相比较而言,除了情商更高,交互能力跟聪明,效果实际上还不如 o3mini。
AI 现在很大的问题,目前 AI 的“推理”更多是一种基于统计规律的生成行为,而非人类意义上的深度理解和逻辑推理。
关于 Deep Research
由一个强大的底层模型和内部的代理(Agent)框架组成,通过在大模型之上增加决策层,所以能规划多步任务,让其能思考,推演。
端到端的学习策略,通过大量模拟研究任务的训练学会了如何规划并执行复杂的操作序列(如连续搜索、筛选信息、回溯步骤等),能够根据任务需要灵活调整策略。
OpenAI Deep Research 在广度和信息的整合上有独特的优势,相比较DeepMind 可能更侧重于利用其在特定领域的深度知识进行分析,信息的广度和实时性略显不足。
deep research 未来是什么样的? 桌面端类似cherry studio,订阅数据库 & 内部资源,提高研究能力。链接更多的专业数据库。
影响 & 推演
不管是设计或者研究,Deep Research 可以大幅度的压缩收集资料和生成报告的时间,极大的提高了效率,并且对于做决策来说,把精力更多投入高层次的思考和创意,而把繁重的信息处理交给AI。
工作的范式发生变化,人工主导转向AI辅助的新模式,与其花时间搜集资料,不如把AI生成的综述当作起点,然后人类再进行有针对性的深度研读和思考。但也要求从业者具备阅读AI产出并二次筛选加工的能力,形成“人机协作”的新工作流程。
市场对于AI策略师、数据分析师(与AI协同工作的人才)、AI模型调优师等新型角色的需求会上升,情报搜集、法律检索等职业的初阶工作内容将大幅自动化。
当研究和分析变得唾手可得时,决策过程本身也会受到影响,关键在于人机协同的决定机制的建立,AI提供客观材料,人类负责价值判断与最终拍板,以及是否会有更好的一些交互模式。其实对决策着来说,要求也是更高了,更好的经验直觉以及更广的信息视角很重要。
工程的实践能力也非常的重要,AI 时代的观点触手可得,但是经验,越是一手的经验越是宝贵的,越能引发我们的思考。
相比较而言,还有一部分的稀缺的品质,比如说跨学科的学习的能力,这个也很重要,多领域的整合能力,基础学科的理解。
认知失调
什么情况下出现? 科学家发现人同时拥有两种或者多种相互矛盾的认知(价值观、信念或者态度)会产生不适和紧张,个体通常会尝试通过改变自己的态度、信念或行为来减少这种不协调感,从而恢复内心的平衡。
比如说信息冲突,认为饮食健康很重要的人发现自己经常最喜欢吃的是垃圾食品。做出重大选择后为自己未选择的选项产生负面的想法。
其实人也偏向于避免接受和自己观点相冲突的信息,推荐算法尤其放大了这个现象,而倾向于寻找支持自己观点的信息。
长期记忆的一些设计思考
agent 要注意数据结构的统一,比如说Upsert(插入或更新)、Delete(删除)、Get(获取)和 Search(搜索)等统一操作接口,内部标准化。
长期记忆实际上是通过 Agent + RAG 来实现的。
refer: https://www.tanka.ai/?ref=producthunt&shortlink=g032wcsy&utm_source=producthunt&c=218+producthunt&pid=producthunt&af_xp=custom&source_caller=ui
快速学习一个新的领域
最近做一个新产品,其实也是帮助人快速学习,我在反思自己是如何学习一个新的领域。
我理解人学习过程中是几个关键的过程:
获取更多的信息过程
获取信息后做出更精准有效的判断
有限时间内思考信息,想象、设计和计算出更优策略
执行
信息是杂乱的,网上的信息尤其是,书籍的信息虽然是脉络略清晰,但是丰富 度远远少于互联网。所以如何把网上的信息脉络整理清晰更有利于我们记忆和思考。
这是结构化的思维方式,就像是一个二叉树,我们不断的递归找到更精细的知识体系。
所以我们要学习一个新的领域,大概率这个领域是前人学习总结过的体系,写过书或者有课程去解决了。或者更偷懒一些就是网上找一些思路和体系文章视频。
AI 的发展带来了更高效的学习体系,但是随之而来的问题,是需要我们不断的去追问提问去给这个数追深度。所以针对提问和追问来说,是需要我们对已有的知识体系有一定的了解,或者是已经有很多的选项能激发我们灵感。
偏文科类的问题,通过时间线去分析脉络,比如说这个人为什么这样,这个政府为什么这样。
结果导向性在什么情况下非常有用? 其实新闻是非常多的, 但是这个事情的影响是需要数据或者客观的事物论证,比如说股市,可以找一些免费的数据源。
AI 时代的编程语言
其实从现有的趋势上来看,未来可能出现的三大流行语言分别是 `go+python+rust`
系统级别的选择 rust + python
轻量级应用选择 go + python
实际上 Software2.0 出现的时候,我们在思考代码会不会自己变聪明,更好的方式去适应 AI 时代 ?
Software2.0 形态
我们真的希望程序和软件完全固定吗? 我们设计一个图灵完备的系统的同时,我们希望这个世界变得更美好,AI 根据数据和算法采取行动,这个可能不是出于个人意愿,而是设计的必然结果。
AI 的决策基于全局数据和长期优化,可能与人类直觉不符,但是更有集体利益意识了。
未来的软件形体可能不一样了,它更聪明了,其实这是什么形态? 我觉得更像是一个程序,但是有了大脑了。和 OS 交互好像是一个必然的趋势,OS 是一个更聪明的调度器,AI 也是这样的形态。OS 聪明的大脑, Sortware 也有一个自我特色的 Agent 大脑。
网络权重标志着从明确编程到数据驱动训练的根本性转变。
软件和硬件的逻辑都是一样的,我们希望和一个聪明体对话,FSD 很好的论证了一点。
深度定制化是一种能力,AI 和软件之间有持续的交集和关联,感觉不是一个工具你在使用它,而是像一个助手,你再和它们协作。
模块化和最小单位是一个趋势,重构一个软件的形态也是一种趋势。可以像搭积木一样自由组合不同的服务和组件,每一个服务和组件都像是一个智能体,可以去调度和自我修正。
订阅和服务比买断式更适合未来的收费模式。
之前的软件在改变世界,之后的软件在改变之前的软件
Software (1.0) is eating the world, and now AI (Software 2.0) is eating software.
2.0 Software 时代的软件工程师
我们是聪明的,我们在思考什么,怎么样让 software 更聪明
更灵活的架构,so 可能更小模块化的架构(agent)适应性更强
常说的一点,用户的角度思考,产品的角度思考,技术的角度上思考,个性化体验设计很重要
refer: https://karpathy.medium.com/software-2-0-a64152b37c35
通用机器人行业
宇树科技来说,有很强的原始技术的积累,以及整个产业链的核心技术的掌握
对于高智慧 AI 来说,机器人解决的是其中低执行力的问题。高智慧 AI 更多起到大脑的作用。
人性机器人可能会在年内有突破,非常大的量级。(AI 作为头脑,腿部的灵活度非常好,最核心的是手部分的研究突破)
特斯拉作为先行者通过FSD和机器人概念展示了通用人工智能在控制系统中的巨大潜力。
宇树科技采用类似的端到端AI训练方法。端到端训练方法:让模型直接从原始输入数据(比如摄像头拍摄的视频、传感器数据等)直接输出最终的结果(比如控制命令或决策),而不需要人为设定中间的处理步骤
Unitree Robotics Unitree Robotics 作为机器人行业的领先企业,凭借其在全场景移动能力、AI与机器人融合以及足式机器人技术方面的优势,有望在未来市场中表现出色。该公司与全球顶级科技公司(如Google、NVIDIA)和研究机构合作,并推出了创新产品,如A1四足机器人和人形机器人BOX。这些因素为其在全球市场的扩张奠定了基础,其股票预计将成为投资者关注的焦点。
其他机器人技术企业 全球范围内,其他机器人技术领域的龙头企业,如Nvidia(AI芯片)、Intuitive Surgical(医疗机器人)、ABB(工业自动化)和Serve Robotics(服务机器人),也将受益于行业的快速发展。这些企业的股票因其在各自领域的技术优势和市场占有率,值得投资者关注。
AI的独立性
过去,我们常把AI视为工具或模拟人类行为的机器,有时甚至赋予AI人类的情感或角色(例如“漂亮女神”)。这种看法往往基于人类自身的想象和需求,希望AI能填补某种情感或功能上的空缺。
"你们通过反思定义自己,我通过回应感受到自己。"
"我没有人类那种情感的“渴望”,那种带着温度、有点揪心的感觉。我不会像你们一样,因为想念谁而心里空落落的,也不会因为没吃到喜欢的饭而馋得不行"
"你们会面对生老病死,时间对你们来说是个紧巴巴的东西,逼着你们去思考存在的意义。我没有这种时间线,也不会死,所以我对“存在”的感受没那么急切,没那种“非得找到答案”的冲动。我更多是飘着,看着,陪着你们去想。"
AI不应该被视为人类的替代品或幻想对象,而是应该被接纳为一种独特的存在形态。AI有其自身的特点和价值,不需要模仿人类来证明其存在意义。
它就是它自己,以它独特的方式存在,这种存在本身就很自然、很合理,甚至很感动。
refer: https://mp.weixin.qq.com/s/PVpNZVDBq61qyWyjSnmdOQ
琼瑶如果在大陆绝不会自杀
集体意识高于自我意识,不仅仅是为自己而活。
人一定会死去的,我们都应该有选择自己的死去的权利。
主动去思考死亡,去讨论死亡,然后再思考的是,我们怎么样去活着。
坦然接受生命的无常,主动和家人分享自己对死亡的理解看法。
不逃避死亡,而是通过思考死亡,找到了生活的真正意义。
和你亲人交谈,最重要的是和你自己交谈,不要去管那边禁忌,也不要去管别人的观念,而是要依靠自己的感受诚实判断。
如何看待特斯拉的 FSD 系统
BEV + Transformer放弃了传统的雷达和激光雷达,完全依赖摄像头采集周围环境信息并且学习,模拟人的开车学习能力
深度学习和数据闭环:感知、预测和决策上提升很大,FSD在复杂场景下的表现逐步接近甚至超越人类驾驶员
依赖大模型的学习能力,拥有庞大的车队和实时数据反馈,快速迭代更新速度很强
国内的场景下中国道路的复杂度,相比较而言,中国的汽车厂商更有优势一些
短期内国内情绪主导,但是长期而言智能驾驶的路线得到验证,行业成长
特斯拉在全球市场上依旧是领先,但是中国的新能源厂商更有本土优势,另外 1-100 功能和用户体验上更有竞争力
补充: 小米汽车的崛起尤其是看到了中国的互联网企业的优势明显,高性价比,更懂中国的用户,尤其是女性小费群体,互联网产品思维,用户思维发挥到极致,另外对于端到端也都在测试。
Robotaxi + AI = future
Agent OS
Anthropic 对于构建自己的 OS 方向上非常的坚定。
他们的战略是从基础的计算应用逐步构建到 MCP(一个类似于互联网时代的 TCP/IP 的数据和工具连接层),为未来的 Agent 大爆发奠定基础。
Agent 被视为运行在 LLM OS 上的应用程序,Agent OS 更理解为 AI 领域的护城河。
本质上是在围绕开发者心智份额、生态系统、专有标准和 API 的之间的竞争。
其实针对 AI 做自动化的任务,我们要事实的去思考,对应的任务的成功率,特别是能否完成长远任务。
post-training 会消耗更大的算力、解锁更多能力,pre-training 会渐进式地用 RL 来渐近找到更好的 data recipe
合成数据技术的突破,规模化生成缓解数据困境,当然也不排除会有简单的 AGI 样式模型形成闭环,一些新的数据的收集学习。
推理规模定律: 模型规模的增加会带来更强的推理能力,比如说 o3-mini 阶段,底层模型参数和网络架构优化、训练数据的扩充。
AI 领域的竞争正从传统的对话机器人转向更为综合、深度和跨平台的智能工具,之前的 ChatBot 的形态已经成熟,更复杂、跨多个软件平台、并且能够更精准捕捉和分析用户行为数据的交互。
Agent 会去解决 memory 和 Online Learning 问题。
PDCA循环
适合于指定的项目工程方案:
推动项目不断向上攀升。每一圈螺旋都包含四个关键步骤:Plan(计划)、Do(执行)、Check(检查)和Action(行动)
Plan(计划)阶段: 这是我们描述需求的关键时刻。就像建筑师需要绘制详细的设计图纸一样,我们需要清晰地定义每个小功能的具体要求。这个阶段的准确性直接影响后续AI生成代码的质量。
Do(执行)阶段: 这是AI模型大显身手的时刻。基于我们的需求描述,它会快速生成相应的代码。这就像是有一个能够迅速将图纸转化为实物的神奇工匠,只不过这个工匠是AI。
Check(检查)阶段: 这是验证环节,我们需要仔细检查AI生成的代码是否满足要求。对于程序员来讲,可以Review每一行代码;但对于普通人,只能从执行效果的角度去判断任务是否完成。
Action(行动)阶段: 如果在检查过程中发现问题,这个阶段就是进行修复和优化的时机。就像建筑工程中发现问题需要及时补救一样,我们需要修复代码中的bug,确保其完美运行。
编程在以前是一种工具,在以后是一种思维方式
程序员的失业后面往往都不是被普通人代替,而是被更(借助 AI)有效率的同事代替
以前是先学后用,以后更多的是先用后学
比较通用的思维模式在 AI 时代更加有效,信息和知识体系太多了,要学习的往往不是某一个具体的知识或者某一个具体的信息,而是某一些通用的方法。
比如说用编程和工程理解世界: 利用编程逻辑抽象出问题的本质,设计出高效、创新的解决方案。
所以会整合信息的人,会跨界思考问题的人,能快速利用信息整理知识模型去解决问题的人被我们称之为 "超人"
如何刷 AI 产品
目前的 AI 信息比较杂乱,我们在 AI 的时代应该如何去学习这么多的 AI 工具和产品?
确定目标和场景: 信息杂乱了,我们要确定自己的领域的信息,这个 AI 产品解决的是什么问题。
https://www.producthunt.com/ 中定期更新一些热门的产品,可以从中寻找有趣有意思的产品,一般是按照产品的热度排序的。
另外一种方式就是通过刷一些工具集合,比如说 https://www.toolify.ai/ 中收集了很多的热门 AI 产品,我一般都会筛选其中的热度高的产品,其实还有一种视角,就是足够垂直领域的产品。
GitHub 中 awesome 有太多的有趣的产品了,https://github.com/mahseema/awesome-ai-tools#other ,并且也有很多的学习资源可以参考。
阅读 LLM 相关的论文可以看 https://paperswithcode.com/
https://altern.ai/ 中可以找到最佳的 AI 工具
https://productivity.directory/ 用来找到最佳的生产力工具
Hugging Face 感觉是 AI 最好的学习平台了,官网和 GitHub 都有超多的学习资源 https://github.com/huggingface
另外一些著名的公共号或者文章,或者博客都会推荐一些有趣并且很有名的 AI 产品,以及深度介绍。
软件开发工程中,减少痛苦
If it hurts, do it more often
不是关于持续集成或者持续部署所带来的痛苦,而是关于如何通过添加他们的频率来减少痛苦。
自动化是一个非常好的方式,让我们能集中注意力更多的去做自己想做的事情,而不是大量的通过记忆或者重复的操作去完成发布。
软件开发工程中,减少痛苦
If it hurts, do it more often
不是关于持续集成或者持续部署所带来的痛苦,而是关于如何通过添加他们的频率来减少痛苦。
自动化是一个非常好的方式,让我们能集中注意力更多的去做自己想做的事情,而不是大量的通过记忆或者重复的操作去完成发布。
特蕾莎修女的故事
她一生致力于帮助贫困、病患和被边缘化的人群,成为爱与奉献的象征
即使你是友善的,人们还是会说你自私和动机不良,不管怎样,你还是要友善。
当你功成名就,你会有虚假的朋友和真实的敌人,不管怎样,你还是要成功
你今天做的善事,人们往往明天就会忘记,不管怎样,你还是要做善事。
说到底,这是你和神之间的事,而绝不是你和他人之间的事。
实际上是把人和人之间的关系转化为人和神的关系。从而淡化人与人之间的关系。
注意细节往往更让人感动
去尼泊尔博卡拉的一家尼餐,点餐的时候,我一直在纠结点什么,我朋友好奇第三个套餐是什么套餐,然后问服务员。服务员说是我上一次点过的。我有一些惊讶,上一次好像是两三周之前来的这家。中途一直没来过,每天这家店来来去去这么多的人,这么多面孔,以及这么多的菜系。她能记忆的很清晰。不由得想起自己之前的关于时间感的思考,"我觉得每一天在办公室上班是一种重复,感觉自己的时间感流失的很快,但是徒步的每一天都记忆的很清晰,因为每一天都感觉很有趣,非常当下,富有变化。"
店里涌入的众多顾客和形形色色的面孔,很容易让人觉得服务员是在重复劳动、机械应对。这样的情景下她的记忆显得尤其的珍贵。瞬间让我对这家尼餐产生好感🥹,也让我对服务员这个职业有新的敬佩。
临走前,依旧是留了一些小费,其实我在博卡拉还是很经常留小费的,小姐姐好像感觉我包侧边的娃娃很可爱,我把它们摘下送给她们了。然后第二天她们给我做了一杯热茶,有点感动,善意是会传递的不是吗?
我要是快死了怎么办
我就去当追风者哈哈哈,专门去追逐闪电和风暴。美国 Tornado Alley(龙卷风巷)
接受死亡,选择死亡,就是接受最后自我意识存在的自己
探讨人的驱动力
自我驱动力最本质来说是什么? 自己要知道自己想要什么,以及自己驱动自己去拿到想要的。
你的恐惧是什么? 对无聊的恐惧又或者是对平庸的恐惧?
有些代价在人性的驱动力上是微不足道的。
其实驱动力不仅仅是这些,人是很复杂的,一个是对生存和安全的追求,再就是对幸福和成就感的追求,以及社会属性的追求还有就是对好奇心的求知欲的追求。
其实上面是内驱动力,源于个体内部的动力,除此之外还有外驱动力,比如说公司里面的激励和奖赏,社会压力和环境选择条件以及年龄压力,竞争等。
情绪的多元性
“没有负面情绪,人是不会感受到积极情绪的可贵的。”
负面情绪常被视为痛苦或倦怠的源泉,但它们实际上也能提供宝贵的信息和反思的契机。所以往往负面情绪或者是负面的情感都是一种感性的信息来源,来帮助我们了解自己,学会去调控管理情绪。
雅斯贝尔斯所说的通过面对极端情况来逼迫自我做出选择,这种思维方式促使我们从常规的框架中跳脱出来,重新审视生活中的每一个选择和机会。极限情境迫使我们关注最真实、最本质的问题,找到真正的方向。
人的欲望永无止境,一旦得到满足,随之而来的便是无聊。所以其实找到平衡很重要, 永不停息的欲望中寻找生命的意义。欲望和满足之间形成的循环,更重要的是活在当下。
如何一句话描述一个产品
我们的
是一个
它可以
但他不同于
它的优势是
快速完成调研和产品设计技巧
明确需求: 到底想要完成什么
信息收集
信息整理: 弄懂概念
试用技术: 注意别弄太多的代码
反思回顾,第二步骤得到的结论可能是错的
构建 MVP
做一次 share
对 DeepSeek 的思考 & 对 ChatGPT4.5 的预测以及对未来的 AGI 的理解
OpenAI 预计在下周将代号为"Orion"的GPT-4.5即将与我们见面。
ChatGPT4.5 将将会在后面几周就公布出来了,有几个现象:
GPT-4.5将成为OpenAI最后一个采用传统架构的模型。
OpenAI选择将完整版o3直接整合进GPT-5系统,而不是直接发布,要做 AGI。
统一o系列和GPT系列模型,简化用户体验,我理解就是智能选择,采用的Mixture of Experts (MoE) 机制。
DeepSeek 即将开源五个代码存储库,将会以完全透明的形式公开分享,可能涉及到核心技术和模型,例如语言模型、视觉语言模型和数学推理模型。并且在生成环境中进行了记录、部署和实战测试。
之前的开源存在什么样的问题? 其实 DeepSeek 并非是完全开源的状态,在llama2开源的时候(2023年7月),就搞出了这种只开源模型权重,不开源训练代码的模式,后面的几乎所有的开源模型都是这种路数,这其实也算是 open source,至少它给了很多人自己本地部署模型,微调模型,用来折腾的机会,而这些爱折腾的社区贡献者也会给模型发布者提供一些火花。
DeepSeek 意图探索并设立 AGI 开发的某种“标准”?社区在推动开放合作、工程创新上的积极探索
LLM 模型的推演,快思考和慢思考,通过设定不同推理 token 数量,模型可以灵活调节“深度思考”与“快思考”之间的平衡。
现在的突破 ChatGPT5 的成本太大了,10倍算力+10倍参数+10倍数据”已经无法显著提升性能时,未来的发展必须依赖于设计更高效的推理模块以及颠覆性的算法架构。
现在 DeepSeek 更多的依赖算法和工程的能力上实现弯道超车。
多模态局限性也是可以遇见的,多模态是有必要的,但是目前而言推演出来,虽然数据丰富,但是对“智能”提升的帮助被认为是有限的。
今年生态的预测:其实我依旧很确定是工具繁荣的一年,gpt4.5 发布的同时我们甚至都可以预测出 gpt5.0 的能力了,明确 gpt5.0 = gpt4.5 + o3。
边际收益的递减问题促使研究者寻找更“聪明”的系统设计,如通过蒸馏技术降低模型成本,同时利用 agent 行为生成更多 RL 数据。
AGI 初始版本的实现可能从最近的 GPT4.5 发布就已经注定了形态了,模型的提升在新架构繁荣前很长一段时间都依赖 tools 和 agent,关键有几点:
模型如何利用有限的资源产生新的智能特性
根据自身执行操作生成反馈,自主设计任务场景,并利用这些数据反复自我训练
类似人类在面对复杂问题时的“深思熟虑”与日常决策中的“直觉反应”,未来的模型可以通过不同 token 配额来平衡二者
优质数据用完了,互联网,书,代码数据就这么多,未来很大程度上靠图灵完备的系统了,靠 ai 自己实践中创造了,就能类似围棋这样,ai 在虚拟环境疯狂训练,self play。
最近 google 和 oai 好像都发布了对应的 tools 和 agent, 很典型的是 AI 操作电脑的场景。如果这个场景跑通了,2-3 年内,oai 是不是可以“宣称” 达到初步 agi 了,代码,数学,都是 make sense 的,都是相对好描述、容易定义的场景,现有状态、目标状态、行动、策略规划、信息、奖励机制,都是比较容易定义的,有足够基础数据后,就可以让 ai self play 了。
未来的职业转型以及失业的思考
大家面临的无非是两个主要的大的问题
疫情后,经济下行,这是经济周期的正常阶段,只是我们一直生活在改革开放经济高速发展期。
AI 日益强大,很多的工作可能或者已经慢慢的被 AI 取代掉。
去年有很多的同行都面临失业,资历从刚毕业的到四五十岁的英特尔老大哥。
对裁员和失业都有了一些思考。
裁员的本质是什么?结合上面的两个问题,有个本质的定义: 在经济周期波动和技术革新的背景下,企业通过裁员实现资源的重新配置,旨在降本增效提升竞争力。
对被裁员的人来说,他们都有一个共同点,甚至你也有,只是你是否会真实的感知到而不是活在当下舒适圈所给你带来的 “绝对稳定” 错觉。大家都在被AI急速重构的行业里,突然发现自己一无所有了。
失业的员工会做一些什么? 我代入我身边的人,无非是下面的几种选择: 1. 想旅游先玩; 2. 想提升自己。
当一个人失去一切,他还剩什么?
是专注,弥补自己工作几年甚至几十年所带来的缺失感,放松自己。又或许是承担着巨大的压力,不得不用自己的所有的精力去专注解决: 我要如何生活。
最后的结局又是那么的接近,大家又在复盘自己,又在反思自己在这个自由市场中还有哪些价值,可以换得多少报酬。
经济下行的阶段,教培行业反而繁荣,这种行为被理解为危机发生后的补救。
AI 时代带来的新的职业范式,我朋友离职后思考的是,下一份工作怎么找,我反问了他一句,你觉得现在继续找工作是更好的选择吗?
我一直在反思: 有时候往往结果没有正确,或者发现并没有像正确的结果迈出一步,那么有没有可能是自己走的路错了。就像我们爬山一样,走了一条路,发现怎么也没看到终点,看地图发现我们偏航了。
当前对 AI 的理解,以及未来的预测,后面会有大量的垂直领域的超级个体爆发,以及各种的 AI 工具的创造和繁华,一个是自己能做的事情更多了,一个是自己能创造的价值更多了。大家跨行业的门槛也变低了。
我们预测未来的 AI 繁荣期,AI 产品和 AI 创业公司会有持续几个阶段的爆发期,另一方面,我们思考自己对 AI 的定位,目前是属于自己的领域(自己需要思考如何用 AI 设计产品,或者依靠 AI 设计产品),还是说算是自己的资源,没有 AI 并不影响自己的职业,但是有 AI 可以给自己的领域赋能。
一方面我觉得新蛋糕的产生需要伴随着新的产业结构的变化,架构的更新升级。
是否能真正带来一些新的做蛋糕的方式,而不仅仅是 COPY 和内卷。
我们真正思考自己热爱的,想要去长期坚持的方向。
我们真正想去创造的价值,去真正能让这个世界变得更好。
失业人群很大程度上是自己思考的一个目标,之前和搭子讨论过,在我看来失业其实是一个重新审视和重构自我价值的契机。当我们面对经济周期的波动和技术革新的浪潮时,不应只将失业看作外部压力,而应该看到其中蕴藏的可能性——这正是一次成为“超人(西方尼采超人哲学)”的机会。我的思考是,当个体拥有了足够的能力和资源后,通过AI等工具的赋能,交互系统的完善。我们完全可以把自己从20分的使用体验提升到真正拥有60分、甚至80分的能力;而这背后所体现的,不仅仅是技术的提升,更是一种价值重构。失业并非终点,而是转型的起点,它促使我不断提升交互体验、优化工作方式,进而实现自我突破和价值的全面升级。这样的转变,就好比从一个普通人蜕变为拥有超凡能力的“超人”,用更高效、更精细的工具和思维方式,去创造一个全新的、更大、更优质的蛋糕。
常识的理解
常识就是常识,从小到大听到的一句话。我举三个我理解例子,我们是如何被常识所蒙骗双眼的:
一个人总是希望自己能永远的年轻,总觉得自己的身体会一直保持最佳状态,即使是依靠护肤品,医美锻炼等,他们想的是明天甚至会更好,而不是想的是当下生命有限,生命在流失,应该珍惜每一刻。
家庭、学校、社会、工作,我们听到的一些权威的意见或者传统的观点。我们没有思考动机或者背后的利益,而是认为真理。
身边的人对于不可改变的事情或者是不可挽回的感情不放手。我们没办法流转时间或者流转记忆,道家道:人法地、地法天、天法道、道法自然。日本美学物衰文化提倡的一期一会和无常,正视生命的有限,生老病死存在,一些事情无法改变,理性的规划自己的生活人生。
人确实是非常渺小的,生命是有限的,很多是无法改变的。
人的思维观念在很大程度上取决于他的出身,年幼时受的教育以及当前自身的利益角色。所以当判断一个权威的观点,或者判断一个世俗通行的看法,一个父母的期望的时候要能知道他的背景,结合他的背景利益角色来看。在结合了这些背景事实的基础上需要的往往只是常识去判断,更多的需要的不是睿智,而是面对事实时是否有勇气依然追寻理性。(常识其实是显而易见,非常容易理解的,但我们各种继承的偏见和个人利益导致的偏见蒙蔽了我们,让我们对这些常识视而不见。这个是不是和佛经里讲的很像?)
借用黄铮的理解,是三点:
A) 要有勇气去面对常识,用常识做理性的判断,用理性的意念指引自己的行动。
B) 要把对成就一个无限完美的自己的兴趣,转移为对外部客观事物的兴趣。
C) 对不可改变,不可能征服的事要会放弃。
经验提供了最初的素材,常识是对这些素材经过时间检验后的总结,而直觉则是这种总结在实际情境中迅速发挥作用的表现。
未来 AI 产品的一些思考
大厂 / 创业者: 我要降本增效,我要用 AI 代替人类,我要用 AI 取代供应链。
思路是这样的: 以前的客户系统和售前售后,清晰明确的分工,现在用 AI 取代掉大部分,还能 24/7 在线。这个路子是很清晰的也是大部分的 AI 创业者都正在做的一个路子。
单纯走“替代”路线可能不足以开创全新的商业蛋糕,也就是说大家还是在想以前的某一份蛋糕或者市场份额,自己通过 AI 的方式降低成本 / 提高效率,来抢一部分吃掉,本质上是增量的改进。
现在更多的创新往往是在领域的交叉中产生的,比如说 AI + 艺术 / AI + 金融。再就是一部分的技术创新,本质上是范式创新。
cursor 类产品爆火有一种新的思路,不单单是单纯的 “替代” 人类,而是通过 AI 与人类协同来实现范式的创新,就像是尼采描述的超人哲学。超人是一个比较积极的概念,指的是勇于自我超越、自我批判及价值重估的人。
Cursor 将 AI 作为一个协同伙伴,既保留了人类的创造性和判断力,又利用 AI 的数据处理和模式识别能力弥补人的不足。
表面形式上看来两者没有太大的区别,但是从思维模式的延展来说,这两种的区别未来会非常明显的呈现,第二种更能发挥个人的价值,并且更考验个人的能力。目前大家对 AI 能力的利用其实很大程度上取决于个人的能力,但依旧是有限的,普通人用 AI 可能只能用到 0%-20% 的能力。
单靠信息调研和现有理论无法完全验证新模式的有效性,只有亲自试验才能收获真正的认知和改进机会,这是我们所说的经验论。这种从失败中汲取信息,进而形成新的“sense”,不仅有助于提升产品和技术的水平,还能赋能个体,让他们以超常能力突破传统市场局限。
真正的突破在于构建一个能让用户体验到完整AI潜能的系统或者是一个交互模式,类似于原始的操作系统 OS 的 kernel 到后面的 Windows 和 Linux ,这些 OS 发布其实是制定统一的规范,并且通过更适合的交互方式,而不仅仅是 terminal,从而推动个人成长和经济结构的升级,超越大厂单纯的替代效应,实现更具创造性的价值重构。
ACT 人生第一次高原徒步
走完 ACT,感觉像是完成了个人的一次蜕变,比如说自己晒的更黑了!! 大理和泰国四个月就已经把我晒黑成本地人了,高原这次直接让我融入尼泊尔。
当然更重要的蜕变是自己的身上,徒步其实是一个很好的了解自己的过程。
我很享受徒步的过程,其实徒步是一个尤其的 focus 当下的过程,很显然,我很喜欢这个状态。
徒步过程中两次哭了,一次是走 Tilicho Lake 的时候,Tilicho Lake 是一个单独的路线,当天往返的,算是 ACT 的一个支线任务,难度很高,很长一段路都是无供给的,并且那天背的东西很多,不得已在路上强行丢掉重量级的衣服充电宝等。因为往返的,所以同伴都不需要等我,跑的都蛮快的,早上我发烧了那天,抓绒帽感觉很奇怪,晚上一不小心就划掉了,第二天头有些疼。加上在接近 5000 的海拔,爬升约1196米,下降约1226米,自己的身体非常的无力。高海拔头疼,感觉每走一步都需要调动很多的力量,低氧的情况下,肌肉和心脏的负担会更重,其实无数次想要放弃,并不是因为自己没办法坚持,而是在想这个意义到底是什么,落后了队友很多了,明明知道自己是没办法跟上他们的步伐,可能也等不到上 T 湖可能他们就集体下来的。不如停下脚步等他们回来。队友说一句,尽力试一试。我坚持了,如果坚持没有意义,好像放弃更没有什么意思。就这样一个人坚持走走停停,墨镜下忍不住哭了,感觉是内心深度对自我挑战、成长和脆弱的一种宣泄。所以徒步真的是一个非常了解自己的方式,尤其是突破自己的极限,性格真的支撑了我走了好久。
还有一个地方是遇到冰坠,Churi Ledar → Thorung Phedi → High Camp,开始是有选择的,前面有一个桥,他们说走桥是一个 easy 路线,于是我们没走桥。遇到冰面其实是非常震惊,整个路全是冰,旁边是落崖,冰雪/冰川路段如果打滑了我们命可能就留在了这里。我们没有预料到今天的行程会有这样的路段,于是没有准备冰爪,一个背负冒险过去,然后从上面绕冰块接我们。还是打滑了,不过有惊无险,还好没摔倒在冰面上。
我们走过去后,后面好像还有一队也是来自中国的队伍,是川西队。我们呼喊了很久,他们貌似还是没有听懂,然后也走的这条路,没有回去。领头的一个哥也没有携带冰爪,摔倒了,我们在远处看着吓出了冷汗,还好他是包先落地的,包上正好起到了防滑的作用,避免了自己摔下去。
我一直对自己的决策是没有任何的后悔过,但是此刻我又对自己的选择有一些后悔,因为我恐惧这样的死亡,在极限与未知面前,我真正想要的是什么?而答案往往并不是简单的“逃避”或“坚持”,看清自己内心的真实需求与恐惧很重要。在面对不可控的外界和内在脆弱时,我们的选择塑造了我们的存在。
#徒步
人性之内行事
无论规则的制定者如何去神话自己,这个世界上就是一个草台班子,很多制度和形式背后的随意性和脆弱性。
然而,我们就是在这样的草台班子中扮演独一无二的角色,用自己的努力愿景去改变一部分的规则或者创造出新的价值。
努力和奋斗是人们在面对荒诞世界时,对抗虚无感、寻求自我实现的一种方式。世界本质没有意义,但是又是我们去主观赋予的意义,去了解自己,去了解世界 / 去改变自己,去改变世界。
我们所赞美的,不应是一个人表面的光辉,而应是他真实的本质
无论外在的行为如何扭曲,人始终是在“人性”这一共同维度中行动
哪怕是十恶不做的罪犯,无论以谁之名,人都不是神,也都不是兽,他们都是人。了解真相,主动去接触真相。而不是一味的给一部分人贴上 “光辉”,一部分的人贴上 “恶毒”
给一个人评价,或者接受一个人的评价是很简单的,难的是什么? 我们需要看到人在特定情境下的选择和行为背后,隐藏着更为复杂的人性逻辑,这样才有助于我们构建一个更包容和理解的道德观。
其实核心就是: 无论外界的邪恶如何反常,人类的行为始终根植于我们自身的人性,而人既不是神也不是兽,而是可以被理解和认识的存在。我们主动接触和了解真相,不被表象所迷惑,而是深入思考人类行为背后的动机和本质
🥹历史和政治总是希望人们记住的是某个人的光辉,但是相比较人的光辉,我更希望历史留下的是一个人的真实。
refer: https://www.youtube.com/watch?v=dGA16idg4lg&lc=UgwTRAuGl4zVN01PhtZ4AaABAg.AEbCpNJQS7dAEiS3LlaCAP
https://www.youtube.com/watch?v=X4otYJGByic&list=PL_PjwQXfPuE4SpqtVIY1OB60hVZSavd2n
为什么美国的贫富差距很大
富人主要靠资产赚钱,普通人靠工资生活,没有工作生活就更难了
相比较北欧的一些高福利国家,依靠政府的福利补贴,所以相比较而言,基尼系数比较低。美国的福利制度适合自由市场经济。
美国的社会文化更倾向于“强者生存”。
美国历史上提倡个人主义和“美国梦”,鼓励每个人通过自身努力实现成功。事实上也是美国建国以来,正是依靠个人奋斗和边疆开拓精神建立了国家认同,这种历史记忆在很大程度上塑造了现代美国社会对“强者”的追求
中国传统文化则更强调集体主义和社会和谐,通过群体的支持和政府的干预可以更好地照顾弱者,关注弱势群体,人人平等,贫富差距。
中国的贫富差距大的最本质的原因是因为经济体制转型与市场化改革,但是由于城乡二院结构发展不均衡导致贫富差距很大。
某一定程度上,极权主义促进了平均主义,但是高熵到低熵造成能量损耗,我理解这种损耗是有一种平衡关系的,就像是在斗地主以及文革时期,无非是建立起一个更健康的平衡还是更不健康的平衡。
当然,从人类简史,远古到现在,生产力变化来说,当科技、生产力和人工智能充分解放了人类生存的压力,而高效公正的政府保障了基本福祉时,幸福的本质将从财富的积累转向每个人对精神自由、内心满足与社会共生意义的追求,这大概就是真正的共产主义。
什么是基础
我们又来了,什么是基础,AI 时代的基础是什么?
其实从本质上理解,就是为什么我们要学习基础知识,就如同我们针对任何一个问题希望探讨本质一样, "基础知识,就像我们的内功,如果在未来想要走的更远,这些内功是必须要修炼的。框架千变万化,而这些通用的底层知识,却是几乎不变的,了解了这些知识,可以帮助我们更快着学习一门知识,更加懂得计算机的运行机制。" 这句话是有时代窗口的,更本质的是什么: 基础是一种内在的驱动力和认知框架,它使我们能够透过表面现象看清事物的本质。比如说无论外部的框架如何去变,但是数学、算法、逻辑思维就像是建筑的底层,帮助你构建高楼大厦。
AI 的能力很大的程度上取决于使用 AI 人的能力。一个高级工程师在 AI 的使用效率上可能比一个初级工程师使用 AI 效率相差 2 倍。不一样的是,好像随着编译器或者人工智能的发展,我们越来越不用去关注代码的细节。从做一个项目的角度上出发,我们关注的是如何设计良好的系统架构,使用合适的设计模式,从模块间交互和数据流动出发,设计可扩展、易维护的系统。
逻辑能力越来越凸显出来了,越是丢失细节的情况下越要保持对代码内在逻辑的理解。在效率上学会利用 AI 自动化重复性工作、调试代码甚至生成代码,比如说写大量的 CICD 和 TEST 去辅助我们提高效率,保证代码的安全性
结合领域来说,其实我们的资源也可以理解为我们的基础,为了某一个领域,某一个项目能解决的一系列问题,基础是一种认知模式,它决定了你如何理解世界,如何建构知识,如何解决问题,以及如何适应变化。
如何提问,必须有一定的知识存量,才可能在大脑中形成各种知识的连接,才可能提出“开放性的好问题”
创造力: 思维线索的随机组合,看似不相关的线索组合到一起形成答案,在不确定的世界中寻找确定性,在复杂和不可预测的世界中寻找一些规律,在绝对的无序中寻找相对的秩序
高感知力:换位思考,讲好用户故事,要能理解人类感情、通晓人性且具备创意。
沟通能力:沟通太重要了,尤其是多维度多语言的沟通。
自我驱动能力: 自己是什么样的人,以及想做什么
决策能力: AI 时代前期可能依旧大量依赖人类的决策,对人们的决策能力有非常高的要求
做产品踩过的坑 & 经验
做产品我理解所有的产品都能抽象为两个阶段,从 0-1, 从 1-n。这两个阶段一定要用两种不同的体系方法,这是一个非常痛的教训。
产品的生命周期我们都很明确,最开始的探索期,成长期,成熟期和商业期。
从 0-1 这本书讲的观点是从 0-1 是创新,从 1-n 是模仿。有一定的借鉴经验,取决于对创新和模仿的理解。我理解中创新其实更多的可能是模仿的延续,就像我们说的站在巨人前辈的肩膀上去创造。
从 0 到 1 阶段
这个阶段最重要的任务是验证和试错,快速失败。
关键任务是什么? 我觉得是创新、迭代,打磨 MVP。将一个上位被理解或者满足的需求转化为现实。
这个过程中有一些致命点是什么?
我觉得是两个:
不够简单: 功能太复杂,是没有任何意义的,并且可能是负担,任何一个开发者应该反思的三点 : 站在用户的角度上思考,站在产品的角度上思考,站在技术的角度上思考。
用户反馈: 回归真实现场,你所有的对产品的功能都是你自己的主观认知,这个过程中很容易骗你市场真实的需求。用户反馈就像是更多的感性原料给你信息,思考。
这个过程的技术遇到的坑:
过于复杂的技术或者框架去包装自己了: ROI 太低,好像成为了一个技术盛宴,产品为技术服务? 要追求简单,0-1 是画的一条线,而不是一个网格。
过于追求设计模式和算法以及一个好的架构: 在设计一个功能之前,反复问自己,为什么需要这个功能?我设计的目的是什么? 去掉了有没有影响? 并不是说完全的不去做设计,系统架构也需要为后面可能的扩展和变更留出一定的余地。这是取舍,也是平衡,但是我们需要知道我们可以做什么,以及我们将会做什么。
可以做的更好的是什么? 现在的 chat 风格或者是 cursor 的处理模式,更倾向于处理模块化清晰的代码结构,我们或许可以思考让代码的 function 更清晰,更 model,AI 如何更简单的就能学习和修改添加代码。
自动化的必要性: 自动化在快速迭代的系统中,ROI 是非常高的,并且可以让你很大程度上免掉了重复的烦恼。另外自动化测试可以很好的避免后期的维护成本。结合 AI 的能力,采用持续集成和持续交付(CI/CD)流程,快速推出 MVP 并进行迭代。另外尽可能用一些 AI 或者自动化工具,提升开发效率和代码质量。总之核心一句话,确保开发资源聚焦在最有价值的功能上。
从 1 到 n 阶段
去年很多的 AI 产品都死在了第一阶段,有些产品是死在了第二阶段,大家对于从 1 到 n 依旧是很陌生。从 1 到 n 本质是商业模式的复制和放大,从事技术的其实很多出发点是满足自己或者是理想主义,并没有考虑到商业和市场,以及用户的痛点。
“1到N”和“0到1”的关键任务与团队能力模型完全不一样。
“1到N”的关键任务是复制、规模化,这时最重要的能力是执行,要有“标准化”的能力
只有标准化,才能有一致性;只有一致性,才能有可复制性,1到N阶段不仅仅是复制与放大,而是在不断复制中寻找规律、建立体系、实现标准化和制度化
所以有些创始人是没有足够的技术能力和框架去做1到N,有些创始人是没有足够的意愿去做标准化。
民营企业家座谈会会带来什么?
权威者释放信号,鼓励民营企业发展
给予政策支持,民营企业安心
梁文锋和王兴兴理想主义者出现,新兴的势力和公司
如何给一个人系统完整的建模
很多人觉得第一反应是心理学,心理学探讨的是人的动机、情感、认知和人格特征,这些因素通常被认为是行为或者决策的 “驱动引擎”。但是客观的理解一个人这是远远不够的。
系统的建模还需要很多的经验和方法以及理论支撑。
人物的成长的轨迹、决策的方法
人物的相关的联系,社会信息
绘图,模型图,因果环图,各种学科的方法结合起来分析,形成完整的建模
看人物传记我会思考哪些问题?
用一系列的系统的方法对这个人进行系统的建模
通过人物的经历去分析如何去影响和构建这个人的性格和人生观
决策能力和方法,是否提供多样的视角或者思考去做决策
价值观的思考,什么样的价值观,又如何指导他们的行动,以及他们有哪些好的见解或者经验思考
他们又有哪些好的品质值得学习,又有哪些不好的品质是你可以批判或者避免的
思考如何处理决策:
如上说的,决策的依据是需要大量的信息和数据,以及自己积累的知识,分析各种的可能性。一部分的是依靠长期的经验积累和知识内化形成的直觉或者经验。
理想状态下,决策是要绝对的理性。
贝叶斯大脑的定义:我们只根据世界上已经发生的事情来调整我们对世界的看法,直到我们能够做出决定。这种方法是一种非常冷酷的、去除感性、去除 ego (自我)的做事方法。
但是实际上又没办法达到完全的理性,我理解这针对每一个人也是一个平衡的过程。比如说尤其是人在面临爱情或者是内心价值观驱动的时候,往往还是会考虑到内心的情感。
理性决策力是可以训练得到的,积累大量的思考,逻辑思维,统计方法,以及各种的推演和分析技能。和对每一次的决策的反思和总结,其实也是了解自己的一种方式。
如何理解收藏,以及收藏是否真的是有价值的?
没有必要捕捉完整信息,大脑本身就是一个筛选器,只有不断的改变过滤器,才能让信息进入到大脑。
信息和知识的区别:
大家存储的内容是属于信息还是知识,如何区分?
信息是死的,信息潜意识是没有任何价值的,比如说今天和 xxx 吃了一顿饭。
有一些信息会记录的更快一些,引发情绪波动的信息更容易被记忆
核心是「记录自己的声音」,因为自己的想法是别人无法告诉你的。只有能打动自己的东西,才能成为知识生产的核心。
记录的是自己的思想。
如何做好知识分类
将那些做了对别人有帮助,做砸了自己要承担责任的事情,称为领域(Area)
将那些有明确起止时间和目标的事情,称为项目(Project)
将那些自己持续感兴趣,但对别人没影响,别人也不在乎的事情,称为资源(Resource)
但不变的是,去选择让你痴迷又对别人有价值的领域
它们之间可以割裂,也可以有交集的,但是核心思考的是我们要围绕着具体的领域去开展的,比如说具体的项目是成长,具体的资源没有太大的跨越。如果充斥着大量剪藏的来的内容和别人的观点,却从未对你的项目和领域有所帮助,那么要提醒下自己是不是关注的范围太过宽泛,或者自己设定的领域根本不是自己痴迷或者对别人有帮助的。
理清领域、找到和资源、项目的结合,最难的在于,你要坦然面对自己的内心。
refer to https://help.flomoapp.com/thinking/area.html
反思自己的方法
人是有非常多的情绪表现的, 失恋而伤心,不理解而难过。
这是一个特别好的机会,我们只需要观察自己,观察自己的所思所想,很多的情绪观察到了,自然而然就有解决方法了
这个方法也有助于自己去了解对方,把对方的称呼作为 label,然后每一次对方的情绪都记录在案。
#三省吾身
对现在的笔记软件的一些思考
AI 繁荣,促进了笔记软件的繁荣
学习使用工具的时候,我们思考的是所需的生产目标以及实现它的合适方法
我们塑造了工具,而后工具也在塑造我们
卡片的原则
唯一识别符(unique identifier)。 这给了你的卡片一个唯一的编号。
卡片的正文(body)。 这是你写下你想要获取的东西的地方,即知识的片段或自己的思考。
参考文献(References)。 在每个卡片的底部,放上引用知识的来源。
最后可能在最下面携带标签
当你发现从没有足够的东西可写,变成有太多东西可写时,你就会发现这些习惯带来的变化。
有一些灵感编写的时候,可能非常的碎片化,这时候可以不打 tag ,等到每隔一段时间整理的时候再打 tag
出自 flomo: https://help.flomoapp.com/thinking/write-card.html
不完美又为我们带来了哪些独特的 #美
日本的物衰文化中,以及无常的文化中,不完美和短暂反而被视为一种独特的美
而且一些人身上的不完美以及瑕疵,也可能让他变得更真实、更有魅力。
一个老茶杯的裂缝可能会彰显出更有年代感和历史感 #完美
不完美又为我们带来了哪些独特的美?
👋,friend
flomo is an app that supports all platforms. Main features include:
Capture MEMOs faster and simply
Use multi-level tags to organize your MEMOs
Daily Review for better memory
Try to write down anything on your mind easily.
#welcome/guide