看到一个抖音。
首先先说一下为什么同寝室姨妈会在一起来,麦克林托克效应是女性的大汗腺分泌有明显的周期性,与月经周期基本一致。集体生活时间长了,月经周期会趋向一致,这叫做麦克林托克效应。
其次在说一下这个概率问题,一个女生与另一个女生的生理期有相交的概率在三分之一到二分之一之间,不是4分之一到五分之一之间。
最后再说一下我的冤种朋友为什么会知道什么姨妈巾好用?
首先先说一下为什么同寝室姨妈会在一起来,麦克林托克效应是女性的大汗腺分泌有明显的周期性,与月经周期基本一致。集体生活时间长了,月经周期会趋向一致,这叫做麦克林托克效应。
其次在说一下这个概率问题,一个女生与另一个女生的生理期有相交的概率在三分之一到二分之一之间,不是4分之一到五分之一之间。
最后再说一下我的冤种朋友为什么会知道什么姨妈巾好用?
#口腔科普##至今为止,活体实验基本上全部以动物为研究对象的,并且活体实验存在周期性长,效率低下,耗资巨大等缺点。其中还有一个更为重要的缺陷是活体动物实验备受所选用的实验对象、实验方式、实验规划、实验设备以及实验者自身素质的影响,有时甚至会引伦理学的限制,导致不同活体实验所得结果,它们之间的可比性很差。
众所周知,我之前在家捣鼓了一个 k3s 集群。
并且将一些我自己用的服务迁移到了集群上,比如那个墨水屏看板的后端。
但是呢用下来发现一个问题,就是墨水屏间隔 60s 刷新数据的时候,
会有周期性地出现 timeout。
我一直以为是我将 k3s 网络层跑在 Tailscale 上的缘故,
可能是哪个 worker 节点和 master 之间的连接超时了。
直到昨天我将所有 worker 节点踢除,故障依旧。
我家没有公网 IP,但我有一台配置非常低的公网服务器充当出口。
我家的群晖上运行了一个 frpc,将家里一些需要远程访问的东西反代到了公网服务器的 frps 上。
原本的方案,我通过群晖的 frpc 将同一内网的 master 节点的 443 端口代理到公网服务器。
这样的链路确实太长了,我决定简化一下。
第一次尝试,由于集群和公网服务器都在同一个 Tailscale 网络中,
所以最直接的办法是在公网服务器上用 iptables 把端口 NAT 到 master 节点的 443 端口,
很惭愧我没搞明白 iptables。
第二次尝试,我在公网服务器的编排里加了个 nginx,通过 ngx_stream_proxy_module 将请求在 TCP 层面反代给集群的 master 节点的 443 端口。
为什么是 TCP 而不是 HTTP,因为我的 TLS 证书是由 k3s 维护的,集群里也跑了不同的 vhost。
捣鼓了一下之后,发现问题依旧。
第三次尝试,观察 nginx 的日志 (图1),发现有大量的 "upstream timed out (110: Operation timed out) while connecting to upstream"。猛然大雾。
Tailscale 是基于 UDP 的,会在软件层面维护一个「会话」。当节点之间没有活跃的 TCP 连接了,那么在 Tailscale 层面的会话就会结束。下一次发起连接的时候,Tailscale 又要重新建立会话。这时候,可能是 Tailscale 的实现问题,第一次连接很大概率是超时的,尤其是两端不在同一个内网,Tailscale 需要尝试 UDP 打洞或中继的情况下。
基于这个猜测,我给 nginx 加上了一句 proxy_socket_keepalive on。观察了 30 分钟,问题没有再出现。
并且将一些我自己用的服务迁移到了集群上,比如那个墨水屏看板的后端。
但是呢用下来发现一个问题,就是墨水屏间隔 60s 刷新数据的时候,
会有周期性地出现 timeout。
我一直以为是我将 k3s 网络层跑在 Tailscale 上的缘故,
可能是哪个 worker 节点和 master 之间的连接超时了。
直到昨天我将所有 worker 节点踢除,故障依旧。
我家没有公网 IP,但我有一台配置非常低的公网服务器充当出口。
我家的群晖上运行了一个 frpc,将家里一些需要远程访问的东西反代到了公网服务器的 frps 上。
原本的方案,我通过群晖的 frpc 将同一内网的 master 节点的 443 端口代理到公网服务器。
这样的链路确实太长了,我决定简化一下。
第一次尝试,由于集群和公网服务器都在同一个 Tailscale 网络中,
所以最直接的办法是在公网服务器上用 iptables 把端口 NAT 到 master 节点的 443 端口,
很惭愧我没搞明白 iptables。
第二次尝试,我在公网服务器的编排里加了个 nginx,通过 ngx_stream_proxy_module 将请求在 TCP 层面反代给集群的 master 节点的 443 端口。
为什么是 TCP 而不是 HTTP,因为我的 TLS 证书是由 k3s 维护的,集群里也跑了不同的 vhost。
捣鼓了一下之后,发现问题依旧。
第三次尝试,观察 nginx 的日志 (图1),发现有大量的 "upstream timed out (110: Operation timed out) while connecting to upstream"。猛然大雾。
Tailscale 是基于 UDP 的,会在软件层面维护一个「会话」。当节点之间没有活跃的 TCP 连接了,那么在 Tailscale 层面的会话就会结束。下一次发起连接的时候,Tailscale 又要重新建立会话。这时候,可能是 Tailscale 的实现问题,第一次连接很大概率是超时的,尤其是两端不在同一个内网,Tailscale 需要尝试 UDP 打洞或中继的情况下。
基于这个猜测,我给 nginx 加上了一句 proxy_socket_keepalive on。观察了 30 分钟,问题没有再出现。
✋热门推荐