记录一下我距上次分享以来又听到的好播客
这半年非常需要情绪价值所以大多数听得都是脱口秀播客
首先隆重介绍p1 我这半年来听到最好笑的一期 可以和毛豆聊暴食那期并列第一 甚至可能这期更好玩 情绪拉满 火呛手几乎每期发挥的都很稳定而且选题很好玩
今年听得最多的还是不开玩笑 甚至已经快超越凹凸电波挤入我的100h+队列 一方面因为更新的确实很多 一方面也因为确实稳定输出 也更可能是每次我都是拿这个当白噪声助眠然后没听到内容之后还会再听一遍所以时长非常长[二哈]
p3半拿铁我的知识来源 讲马斯克这几期真的很好 前面讲乔布斯的也好 主要是讲得有来有回不无趣 想有输入的时候就会听
p4燕外之意我的女性向播客 每次都能听到一些更多元的观点 之后会认识到原来是这么回事 对于女性的认识和视角会更清楚 说青蛇这期我真的很喜欢
p5 tsp一直都关注但是尤其喜欢tako讲三体的这个题材 讲得特别清楚而且内容好 每次听我都想再看一遍三体
p6 霓达播客不说了 我的最最最最爱没有之一 一直没上我的100h+的原因在于更新少满足不了我 我心里第一的悬疑案件播客
p7 非常好的心理向播客 是我拓宽心理知识的最大渠道 听steve说话真的有种安心感 可以静下心来听他输出
p8 喜翻调频 也是脱口秀演员类型的 内容还可以 一直听下去是因为好喜欢杨梅的笑声哈哈哈哈好可爱
p9肥话连篇 我真的太喜欢这两口子了 肥杰惠子超有梗且有态度有观点 理想的伴侣生活
p1011凹凸plus 我的播客尺度担当 从一开始听播客就听的是凹凸电波 后面就下app听过了每一期凹凸plus 真的是给我增加了非常多两性知识 有时候听着我真的大震惊居然还能这样 要听的话建议听前两年的凹凸电波 最近的就不太能戳到我 但是截的这两期真的非常好尤其是库拉讲她爸的那里 很震撼很震撼
p12正经叭叭 也是同类型脱口秀播客 但是我喜欢这几个脱口秀类播客的原因就在于听感很舒服 大家都是很善良的人 有各自的性格 有时候虽然吵但是我也能睡得很好哈哈哈哈
今年肯定能破2000h+ 还是和半年前一样 感谢播客 不然可能我真的会没有情绪输出和输入的地方 播客真棒
这半年非常需要情绪价值所以大多数听得都是脱口秀播客
首先隆重介绍p1 我这半年来听到最好笑的一期 可以和毛豆聊暴食那期并列第一 甚至可能这期更好玩 情绪拉满 火呛手几乎每期发挥的都很稳定而且选题很好玩
今年听得最多的还是不开玩笑 甚至已经快超越凹凸电波挤入我的100h+队列 一方面因为更新的确实很多 一方面也因为确实稳定输出 也更可能是每次我都是拿这个当白噪声助眠然后没听到内容之后还会再听一遍所以时长非常长[二哈]
p3半拿铁我的知识来源 讲马斯克这几期真的很好 前面讲乔布斯的也好 主要是讲得有来有回不无趣 想有输入的时候就会听
p4燕外之意我的女性向播客 每次都能听到一些更多元的观点 之后会认识到原来是这么回事 对于女性的认识和视角会更清楚 说青蛇这期我真的很喜欢
p5 tsp一直都关注但是尤其喜欢tako讲三体的这个题材 讲得特别清楚而且内容好 每次听我都想再看一遍三体
p6 霓达播客不说了 我的最最最最爱没有之一 一直没上我的100h+的原因在于更新少满足不了我 我心里第一的悬疑案件播客
p7 非常好的心理向播客 是我拓宽心理知识的最大渠道 听steve说话真的有种安心感 可以静下心来听他输出
p8 喜翻调频 也是脱口秀演员类型的 内容还可以 一直听下去是因为好喜欢杨梅的笑声哈哈哈哈好可爱
p9肥话连篇 我真的太喜欢这两口子了 肥杰惠子超有梗且有态度有观点 理想的伴侣生活
p1011凹凸plus 我的播客尺度担当 从一开始听播客就听的是凹凸电波 后面就下app听过了每一期凹凸plus 真的是给我增加了非常多两性知识 有时候听着我真的大震惊居然还能这样 要听的话建议听前两年的凹凸电波 最近的就不太能戳到我 但是截的这两期真的非常好尤其是库拉讲她爸的那里 很震撼很震撼
p12正经叭叭 也是同类型脱口秀播客 但是我喜欢这几个脱口秀类播客的原因就在于听感很舒服 大家都是很善良的人 有各自的性格 有时候虽然吵但是我也能睡得很好哈哈哈哈
今年肯定能破2000h+ 还是和半年前一样 感谢播客 不然可能我真的会没有情绪输出和输入的地方 播客真棒
#生成式AI[超话]#
【⚡LLM架构的注意事项和最佳实践 -- 如何落地?值得收藏⚡】
讨论了支持LLM在现实世界应用程序中有效部署的架构和系统,包括它们的局限性、功能以及优化性能和克服挑战的技术和系统。
以下是文章的一些关键点:
⚡LLM限制
标记限制:LLM模型面临固有的标记限制,这可能限制了模型能够处理的请求的广度或复杂性。
与上下文相关的性能降低:随着上下文长度的增长,保持连贯性变得具有挑战性。
偏见:LLM可能会受到训练数据中的偏见影响,导致对某些输入的偏见。
幻觉:LLM有时会生成不准确或无意义的输出,这是它们面临的一个主要问题。
⚡检索增强生成(RAG):RAG是一种体系结构设计,旨在通过结合即时工程和上下文检索来解决LLM的限制。
实施RAG:实现RAG系统涉及将数据存储在矢量数据库中,并在接收到用户请求时,LLM扫描数据库以找到最相关的数据片段。
后期处理:使用第二个更灵活的LLM来改进文档检索,重新排序以首先检索到最重要或最相关的文档。
上下文压缩:利用LLM从检索到的文档中去除不相关的信息,留下更相关、总结的内容。
自我查询:使用单独的LLM将用户查询转换为可以与外部组件交互的结构化查询。
前瞻性主动检索(FLARE):FLARE鼓励不断改进模型的响应,确保准确性和相关性。
⚡LLM工具、代理和插件:代理和工具在LLM体系结构中扮演重要角色,帮助简化流程并提高适应性和洞察力。
⚡评估和监测LLM:评估LLM的目的是帮助选择模型,而监测则关注于改进检索过程和微调。
文章强调了LLM的潜力以及在实施时需要考虑的复杂架构和系统。
原文 :https://architect.pub/considerations-best-practices-llm-architectures
更多【https://architect.pub】
【⚡LLM架构的注意事项和最佳实践 -- 如何落地?值得收藏⚡】
讨论了支持LLM在现实世界应用程序中有效部署的架构和系统,包括它们的局限性、功能以及优化性能和克服挑战的技术和系统。
以下是文章的一些关键点:
⚡LLM限制
标记限制:LLM模型面临固有的标记限制,这可能限制了模型能够处理的请求的广度或复杂性。
与上下文相关的性能降低:随着上下文长度的增长,保持连贯性变得具有挑战性。
偏见:LLM可能会受到训练数据中的偏见影响,导致对某些输入的偏见。
幻觉:LLM有时会生成不准确或无意义的输出,这是它们面临的一个主要问题。
⚡检索增强生成(RAG):RAG是一种体系结构设计,旨在通过结合即时工程和上下文检索来解决LLM的限制。
实施RAG:实现RAG系统涉及将数据存储在矢量数据库中,并在接收到用户请求时,LLM扫描数据库以找到最相关的数据片段。
后期处理:使用第二个更灵活的LLM来改进文档检索,重新排序以首先检索到最重要或最相关的文档。
上下文压缩:利用LLM从检索到的文档中去除不相关的信息,留下更相关、总结的内容。
自我查询:使用单独的LLM将用户查询转换为可以与外部组件交互的结构化查询。
前瞻性主动检索(FLARE):FLARE鼓励不断改进模型的响应,确保准确性和相关性。
⚡LLM工具、代理和插件:代理和工具在LLM体系结构中扮演重要角色,帮助简化流程并提高适应性和洞察力。
⚡评估和监测LLM:评估LLM的目的是帮助选择模型,而监测则关注于改进检索过程和微调。
文章强调了LLM的潜力以及在实施时需要考虑的复杂架构和系统。
原文 :https://architect.pub/considerations-best-practices-llm-architectures
更多【https://architect.pub】
为什么要经常看书?
这是我听到最好的答案。
一个人如果不看书,那他的价值观就由他身边的人决定,因为他没有别的输入途径,只能模仿周边的人,或者慢慢去被环境所改变。周围流行什么就跟随什么,永远找不到自己。
读书时富养自己的灵魂,读过的书,哪怕内容不记得,但他依然存在谈吐中,在气质里,在胸襟的无雅与精神的宽广中。
书是向上的阶梯,是治愈的良药,是启迪智慧的良方,是唤醒心智的道法。
这是我听到最好的答案。
一个人如果不看书,那他的价值观就由他身边的人决定,因为他没有别的输入途径,只能模仿周边的人,或者慢慢去被环境所改变。周围流行什么就跟随什么,永远找不到自己。
读书时富养自己的灵魂,读过的书,哪怕内容不记得,但他依然存在谈吐中,在气质里,在胸襟的无雅与精神的宽广中。
书是向上的阶梯,是治愈的良药,是启迪智慧的良方,是唤醒心智的道法。
✋热门推荐