之前发的文章被国外的科普文章报道了,作者还专门发了邮件感谢我们
“Your results are very exciting and I very much enjoyed writing your paper”
“Thank you for your great work and I looking forward to seeing more of your rearch.”
虽然是客套话但是我还是在办公室感动哭了[泪]
但是太晚了[苦涩]
“Your results are very exciting and I very much enjoyed writing your paper”
“Thank you for your great work and I looking forward to seeing more of your rearch.”
虽然是客套话但是我还是在办公室感动哭了[泪]
但是太晚了[苦涩]
【全球城市塞车排名出炉 「台湾5县市上榜」最塞竟不是台北】荷兰卫星导航产品制造商Tom Tom近日公布最新的全球最塞车城市排行榜。他们调查全球56个国家地区共389个城市2022年的塞车情况,台湾总共有台北、桃园、台中、台南及高雄5个城市上榜,其中最慢的城市是台中市,平均开车10公里需要24分40秒,台北市平均开车10公里则要花费21分10秒。对此台中市回应,这显示台中地区蓬勃发展,吸引大量车流而衍生塞车问题,更凸显了台中捷运兴建的必要性。
塞车最严重城市第1名是英国首都伦敦,平均开车10公里需要36分20秒,第2名是印度邦加罗尔,平均开车10公里需要29分10秒、第3名则是爱尔兰都柏林,平均开车10公里需要28分30秒。 (paper)#环球见闻#
塞车最严重城市第1名是英国首都伦敦,平均开车10公里需要36分20秒,第2名是印度邦加罗尔,平均开车10公里需要29分10秒、第3名则是爱尔兰都柏林,平均开车10公里需要28分30秒。 (paper)#环球见闻#
最近一个前微软员工对ChatGPT产业发表了一些似是而非看法,很多人觉得有道理。我对此文有不同的独立思考,有些事可能也只有做NLP的才能知道:
1)Google其实看的更远。TPU在同一模型的云计算部署成本大概是GPU的1/5~1/4,训练和研发成本只是小头,所以在这点上Google的管理层看的比微软远的多。我们自己测算,芯片成本才是部署成本的生死线。在现在,用A100 GPU的话很可能是用的越多赔的越多。
2)训练数据并非主要壁垒。OpenAI的私有训练数据是在肯尼亚和印尼做的,大概2美元/h,paper上说是40人的团队,一个月总成本1万多美元,比硅工便宜的太多了。而通过API搜集的数据,因为质量不好,一般不会是训练的主力数据。除非说OpenAI掌握了其他家没有的算法或训练技术,那就跟这位作者的观点矛盾了。
3)中小企业或机会更多。chatgpt/gpt3.5有好几个模型量级的版本。最大175B,最小1.3B。但这1.3B版本的效果已经超过了gpt-3,非常适合小公司在垂域进行fine-tuning ,反而能够避开与OpenAI的直接竞争,而大公司却不得不去做成本巨大的通用平台。更何况OpenAI跟Google比也是小公司,快鱼吃慢鱼早已代替大吃小的逻辑。#chatgpt##人工智能#
1)Google其实看的更远。TPU在同一模型的云计算部署成本大概是GPU的1/5~1/4,训练和研发成本只是小头,所以在这点上Google的管理层看的比微软远的多。我们自己测算,芯片成本才是部署成本的生死线。在现在,用A100 GPU的话很可能是用的越多赔的越多。
2)训练数据并非主要壁垒。OpenAI的私有训练数据是在肯尼亚和印尼做的,大概2美元/h,paper上说是40人的团队,一个月总成本1万多美元,比硅工便宜的太多了。而通过API搜集的数据,因为质量不好,一般不会是训练的主力数据。除非说OpenAI掌握了其他家没有的算法或训练技术,那就跟这位作者的观点矛盾了。
3)中小企业或机会更多。chatgpt/gpt3.5有好几个模型量级的版本。最大175B,最小1.3B。但这1.3B版本的效果已经超过了gpt-3,非常适合小公司在垂域进行fine-tuning ,反而能够避开与OpenAI的直接竞争,而大公司却不得不去做成本巨大的通用平台。更何况OpenAI跟Google比也是小公司,快鱼吃慢鱼早已代替大吃小的逻辑。#chatgpt##人工智能#
✋热门推荐