DeepSeek 的深度思考为什么会出现 OpenAI 的使用政策?
本来阴谋一波说是套壳,但是开源了
训练用了 GPT 的合成数据
直接问: "你是由谁创建的" 也是回答 OpenAI
估计是强化学习了 OpenAI 产生的结果。
站在巨人的肩膀上
用 gpt 降智测试语句(用 md 列出可使用的功能)和早期 gpt4 结果一样,并且最可笑的是能调用 DALL·E 和其他 gpt (翻墙出去后就没这个答案了,会坚称自己不会调用其他 gpt ),为了严谨调用了其他国内的模型,包括千问和一言,垃圾如一言都是自己模型的功能,通义千问惊奇的是还有道德约束功能,摘人果实与人对比,怎么的都觉得恶心,毕竟收集数据清洗数据成本就是高的
业界都这么玩 😄
closeai 现在的主要收益就是给各个训练模型卖训练数据的
算是老新闻了
hesudu.com/t/1000963
这是买的训练数据的问题。
彼此用对方合成数据训练呗,现在不都这么玩么?
关于这个回答的数据被污染了估计
训练数据可能包含了 openai 相关内容,很正常吧。
DeepSeekV3 训练成本不及 Meta 高管薪资,DeepSeek 使行业质疑千亿美元支出效用
1 月 24 号,一条发布在匿名平台 teamblind 上的帖子疯传。一名 Meta 员工称,现在 Meta 内部因为 DeepSeek 的模型,已经进入恐慌模式。
这位 Meta 员工写道:“一切源于 DeepSeek-V3 的出现,它在基准测试中已经让 Llama 4 相形见绌。更让人难堪的是,一家‘仅用 550 万美元训练预算的中国公司’就做到了这一点。工程师们正在争分夺秒地分析 DeepSeek ,试图复制其中的一切可能技术。这绝非夸张。管理层正为 GenAI 研发部门的巨额投入而发愁。当部门里数 10 位高管其中之一的薪资就超过训练整个 DeepSeek V3 的成本。
这个时间点,在互联网上随便爬数据,就能爬到 OpenAI 的模型生成的数据。想避免都难
训练数据的问题,很正常的。
只是给你一个友好的回复, 哈哈
笑死了,思考了 6 秒说自己是小度
现在还在纠结这些问题,太肤浅了。问 AI “你是谁,你是谁创造的”等等这些问题没有任何意义!
你拿锤子敲钉子的时候会看锤子的钢材是进口的还是国产的吗
#19 你的类比很糟糕,锤子和 GPT 的技术含量不是一个量级的
在 springboot 里面写 kafka 消费代码为了增加消费速度,写了一个线程池,用来异步处理消费的消息那么,请教一下各位大佬如果,异步处理的时候,出现问题了,怎么重复消…
32bits 架构的寻址极限是 4G ,那么 64bits 的极限会被未来的个人计算机逼近吗? 所以内存还是太贵了吧 我估计经典计算机在可预见的未来都不会寻址超过 64bi…
【感谢网友sumtec投递此文,很欢乐也有意思,与大家共勉】 首先说明: 1、以下特征是真实遇到过的,同事犯过的,乃至我自己也犯过的; 2、为了剧情需要,某些例子进行了一些夸张…