【AI高仿你的笔迹只需1个词,Deepfake文字版来了,网友:以假乱真太可怕】
来源:量子位
在实际使用过程中,TextStyleBrush真的就是个格式刷,哪里需要刷哪里。
它真正厉害的就是模拟手写字体。
只需输入一段文本内容,加上你的笔迹,1个单词即可,它就能生成“手写版”。
这个效果,用肉眼看真的是分辨不出真伪!
把菜场中价签的印刷体都换成手写体的过程中,它还能识别出不是印刷体的样本,自动跳过转换合成。
模拟特定字体格式时,TextStyleBrush表现也很不错。
包括海报、垃圾桶、路牌、饮料瓶、店面装饰……各种文字的风格都能handle:
除了直观的效果,开发人员对合成图片也做了数据上的分析。
TextStyleBrush生成的图片在合成误差(MSE)上大幅降低,峰值信噪比(PSNR)和结构相似性(SSIM)也提高不少。
在文字识别的准确性上,TextStyleBrush在三组数据集中的表现都不错:
准确率都高达95%以上。https://t.cn/A6VgdnXR
来源:量子位
在实际使用过程中,TextStyleBrush真的就是个格式刷,哪里需要刷哪里。
它真正厉害的就是模拟手写字体。
只需输入一段文本内容,加上你的笔迹,1个单词即可,它就能生成“手写版”。
这个效果,用肉眼看真的是分辨不出真伪!
把菜场中价签的印刷体都换成手写体的过程中,它还能识别出不是印刷体的样本,自动跳过转换合成。
模拟特定字体格式时,TextStyleBrush表现也很不错。
包括海报、垃圾桶、路牌、饮料瓶、店面装饰……各种文字的风格都能handle:
除了直观的效果,开发人员对合成图片也做了数据上的分析。
TextStyleBrush生成的图片在合成误差(MSE)上大幅降低,峰值信噪比(PSNR)和结构相似性(SSIM)也提高不少。
在文字识别的准确性上,TextStyleBrush在三组数据集中的表现都不错:
准确率都高达95%以上。https://t.cn/A6VgdnXR
售价1499的MEIZU Watch,到底怎么样?
外观上,方形表盘设计,且采用一体式无断点设计,表带材质为氟橡胶。支持全局手势操作功能。机身提供墨岩、天青两种配色可供选择。
参数配置上,搭载高通骁龙 Wear 4100 旗舰芯片,支持 sSIM 功能,可独立上网、通信。且内置 NFC芯片。采用分离式充电底座,支持 45 分钟满电快充。支持包括血氧监测在内的全面健康监测功能,系统为基于安卓独立开发的 Flyme for Watch。
外观上,方形表盘设计,且采用一体式无断点设计,表带材质为氟橡胶。支持全局手势操作功能。机身提供墨岩、天青两种配色可供选择。
参数配置上,搭载高通骁龙 Wear 4100 旗舰芯片,支持 sSIM 功能,可独立上网、通信。且内置 NFC芯片。采用分离式充电底座,支持 45 分钟满电快充。支持包括血氧监测在内的全面健康监测功能,系统为基于安卓独立开发的 Flyme for Watch。
#计算机视觉[超话]# #我爱计算机视觉[超话]#
Overparametrization of HyperNetworks at Fixed FLOP-Count Enables Fast Neural Image Enhancement
深度卷积神经网络可以对用小型移动相机传感器拍摄的图像进行增强,并擅长于像demoisaicing、去噪和超分辨率这样的任务。然而,对于在移动设备上的实际使用,这些网络往往需要太多的 FLOPs,而减少卷积层的 FLOPs,也会减少其参数数。所面临的挑战是严重超参数的神经网络往往是泛化效果最好的网络。
本次工作,作者提出使用 HyperNetworks 来打破标准卷积的固定比例。使得在Zurich RAW-to-DSLR(ZRR)数据集上的 SSIM 和 MS-SSIM 超过了以前最先进的架构,FLOP-count 减少了>10倍。
在 ZRR 上,作者进一步观察到泛化曲线与固定 FLOP-count 下的 "double-descent "行为一致,在大图像极限下。最后,证明了同样的技术可以应用于现有的网络(VDN),以减少其计算成本,同时保持智能手机图像去噪数据集(SIDD)的保真度。
附录中提供了代码的关键部分。
作者 | Lorenz K. Muller
单位 | 华为
论文 | https://t.cn/A6VGD2fB
Overparametrization of HyperNetworks at Fixed FLOP-Count Enables Fast Neural Image Enhancement
深度卷积神经网络可以对用小型移动相机传感器拍摄的图像进行增强,并擅长于像demoisaicing、去噪和超分辨率这样的任务。然而,对于在移动设备上的实际使用,这些网络往往需要太多的 FLOPs,而减少卷积层的 FLOPs,也会减少其参数数。所面临的挑战是严重超参数的神经网络往往是泛化效果最好的网络。
本次工作,作者提出使用 HyperNetworks 来打破标准卷积的固定比例。使得在Zurich RAW-to-DSLR(ZRR)数据集上的 SSIM 和 MS-SSIM 超过了以前最先进的架构,FLOP-count 减少了>10倍。
在 ZRR 上,作者进一步观察到泛化曲线与固定 FLOP-count 下的 "double-descent "行为一致,在大图像极限下。最后,证明了同样的技术可以应用于现有的网络(VDN),以减少其计算成本,同时保持智能手机图像去噪数据集(SIDD)的保真度。
附录中提供了代码的关键部分。
作者 | Lorenz K. Muller
单位 | 华为
论文 | https://t.cn/A6VGD2fB
✋热门推荐