英语六级估分器(机器学习免费跑分神器:集成各大数据集,连接GitHub就能用)
2023-02-03 21:46:40 小编:网络整理 我要评论
英语六级估分器文章列表:
- 1、机器学习免费跑分神器:集成各大数据集,连接GitHub就能用
- 2、节省时间,告别眼花,一键挑出高质量图片,科大&微软推出挑图神器
- 3、ThinkStation P360 Ultra 迷你专业工作站评测:小巧、高效、极致
- 4、i5-1240P对决R7 6850U:谁才是移动办公首选
- 5、目标检测算法连连看:从Faster R-CNN 、 R-FCN 到 FPN
机器学习免费跑分神器:集成各大数据集,连接GitHub就能用
栗子 鱼羊 发自 凹非寺
量子位 报道 | 公众号 QbitAI
搞机器学习的小伙伴们,免不了要在各种数据集上,给AI模型跑分。
现在,Papers with Code (那个以论文搜代码的神器) 团队,推出了自动跑分服务,名叫sotabench,以跑遍所有开源模型为己任。
有了它,不用上传代码,只要连接GitHub项目,就有云端GPU帮你跑分;每次提交了新的commit,系统又会自动更新跑分。还有世界排行榜,可以观察各路强手的成绩。
除了支持各大主流数据集,还支持用户上传自己的数据集。
也可以看看,别人的论文结果,到底靠谱不靠谱。
比如说,fork一下Facebook的FixRes这个项目,配置一下评估文件:
然后一键关联,让Sotabench的GPU跑一下ImageNet的图像分类测试。
就能得到这样的结果:
Top-1准确率,Top-5准确率,跟论文的结果有何差距(见注),运行速度,全球排名,全部一目了然。
注:ε-REPR,结果与论文结果差距在0.3%以内时打勾,差距≥0.3%且比论文结果差显示为红叉,比论文结果好显示为勾
这个免费的跑分神器,发布一天,便受到热烈欢迎:推特点赞600 ,Reddit热度270 。
网友纷纷表示:这对开发者社区来说太有用了!
那么,先来看一下sotabench的功能和用法吧。
用法简单,海纳百川
团队说,sotabench就是Papers with Code的双胞胎姐妹:
Papers with Code大家很熟悉了,它观察的是论文报告的跑分。可以用来寻找高分模型对应的代码,是个造福人类的工具。
与之互补,sotabench观察的是开源项目,代码实际运行的结果。可以测试自己的模型,也能验证别家的模型,是不是真有论文说的那么强。
它支持跟其他模型的对比,支持查看速度和准确率的取舍情况。
那么,sotabench怎么用?简单,只要两步。
第一步,先在本地评估一下模型:
在GitHub项目的根目录里,创建一个sotabench.py文件。里面可以包含:加载、处理数据集和从中得出预测所需的逻辑。每提交一个commit,这个文件都会运行。然后,用个开源的基准测试库来跑你的模型。这个库可以是sotabench-eval,这个库不问框架,里面有ImageNet等等数据集;也可以是torchbench,这是个PyTorch库,和PyTorch数据集加载器搭配食用更简单。
一旦成功跑起来,就可以进入下一步。
第二步,连接GitHub项目,sotabench会帮你跑:
点击这个按钮,连到你的GitHub账号,各种项目就显现了。选择你要测试的那个项目来连接。连好之后,系统会自动测试你的master,然后记录官方结果,一切都是跑在云端GPU上。测试环境是根据requirement.txt文件设置的,所以要把这个文件加进repo,让系统捕捉到你用的依赖项。
从此,每当你提交一次commit,系统都会帮你重新跑分,来确保分数是最新的,也确保更新的模型依然在工作。
这样一来,模型出了bug,也能及时知晓。
如果要跑别人家的模型,fork到自己那里就好啦。
目前,sotabench已经支持了一些主流数据集:
列表还在持续更新中,团队也在盛情邀请各路豪杰,一同充实benchmark大家庭。
既支持创建一个新的benchmark,也支持为现有benchmark添加新的实现。
你可以给sotabench-eval或torchbench项目提交PR,也可以直接创建新的Python包。
一旦准备就绪,就在sotabench官网的论坛上,发布新话题,团队会把你的benchmark加进去的:
好评如潮
这样的一项服务推出,网友们纷纷点赞,好评如潮,推特点赞600 。
有网友表示:
太棒了!对刚入门的新手来说,数据集获取、预处理和评估的自动化和标准化很有用。通过分析不同模型及其超参数结果,来评估这些模型,本身是挺困难的一件事,你得在各种论文中查阅大量的非结构化数据。有了这个,这件事就轻松多了。(部分意译)
许多网友对这个项目进行了友好的探讨及建议,而开发人员也在线积极回应。
比如这位网友建议:能在每次提交的时候报告模型的超参数吗?
作者很快回复说:英雄所见略同。下次更新就加上!
并且,他们还考虑在将来的更新中,让使用者把链接添加到生成模型的训练参数中。
传送门
sotabench官网:
https://sotabench.com/
基准测试库通用版:
https://github.com/paperswithcode/sotabench-eval
基准测试库PyTorch版:
https://github.com/paperswithcode/torchbench
— 完 —
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
节省时间,告别眼花,一键挑出高质量图片,科大&微软推出挑图神器
做生成模型的同学们,你们是不是或多或少都遇到过这个问题:用一个生成网络生成了一批图,但选几张最好的做 demo 可能得花费一番功夫。现在这个问题不用担心了,中科大和微软研究院的学者提出了生成图像质量评估算法(GIQA),它可以自动对生成图片的质量打分,挑出高质量的图片。目前该文章已被 ECCV 2020 会议收录。
论文地址:https://arxiv.org/pdf/2003.08932.pdf
代码:https://github.com/cientgu/GIQA
近些年来,深度生成模型取得了巨大的进展,诞生了很多有趣的应用,然而,并非所有生成的结果都很完美。
如下图所示,图中四个角上的图片均为 StyleGAN 在一个猫数据集上的生成结果。在这些图片中,既有很多高质量的猫图片(右下),也有很多图质量很差(完全看不出来是猫,左下)。
以往大家为了评估哪张图生成的好,往往都是要靠人来判断,这需要花费大量人力成本。在实际应用中,由于对生成图片的最差质量缺少把控,很多产品遭受到了各种质疑。
基于此,来自中科大和微软研究院的学者提出了生成图像质量评估(Generated Image Quality Assessment,GIQA)这一研究方向,并希望实现评价算法以自动地对生成图片的质量进行打分。
具体来说,为了实现这个目的,研究者提出了基于学习和基于数据的两种方法,通过这些方法,我们能够实现对生成图片的质量进行打分,同时实现很多有趣的应用。
上图即展示了研究者对一个模型的生成图片进行打分的分布结果,在右下、右上、左上、左下中他们分别展示了模型评价的从高质量到低质量的生成图片,可以观察到该算法评价的质量基本上和人的评价是一致的。
两种不同类型的 GIQA 方法
下面研究者将介绍他们如何实现用算法进行生成图片质量评价的。
基于学习的 GIQA
研究者发现,在训练 GAN 的时候,生成图片的质量会随着迭代次数的增加越来越好。一个简单的想法是用迭代次数当质量的”伪标签”,通过监督式的学习,生成一个打分器,对生成图片的质量进行打分。
然而,用迭代次数当质量并不精确,他们通过多个二分类器(Multiple binary classifiers)回归标签来平滑去噪,通过平均这些分类器的分数,可以极大的增强鲁棒性和泛化能力。研究者称之为 MBC-GIQA。
数据驱动 GIQA
研究者重新思考质量评估这个问题,发现 “质量” 很难定义好。生成模型希望能生成服从已有的真实数据分布(real distribution)的图片。
因此,他们认为”质量”表征的是一张生成图片和真实数据分布的接近程度。通俗地说,就是一张生成图片有多大可能性来自于真实分布。这个概率越大,表示质量越高。
此外,另一个直观的想法是对真实分布直接建模。研究者根据建模是参数化模型还是非参数化模型分成两部分。
参数化模型:GMM-GIQA
研究者将用高斯混合模型(GMM)来拟合真实数据分布在特征层面的特征。
对于一张待测的图片 I,他们先提取特征 x,这个特征 x 在真实数据分布中出现的概率就表示了该图的质量。
非参数化模型:KNN-GIQA
此外,研究者还可以用 K 近邻(KNN)来对真实数据分布在特征层面建模。对于待测图片 I 及其提取的特征 x,若它与真实图片距离越近,表示其出现的概率高,也就表示其质量高。
GIQA 评估效果怎么样
在研究者收集的 LGIQA 质量评估数据集上,GMM-GIQA 能够取得最好的结果,远远超过传统的图像质量评估方法。同时也最推荐大家使用 GMM-GIQA 的方法。与其他方法的对比结果如下表 1 所示:
下图 3 显示该方法筛选出的图片相比传统的方法更符合人类的认知。
GIQA 方法衍生出的应用
该方法还有很多衍生应用,其中一个是模型质量评估。对于生成模型,我们可以独立地衡量生成图片的质量和多样性。一批生成图片质量的平均值可以用来衡量模型的生成图片质量,研究者称之为 Quality Score(QS)。
相似的,研究者用一批真实图片在生成图片中的质量衡量的平均值当成模型多样性的衡量 Diversity Score(DS)。
研究者用这些方法在 unconditional GAN 和 conditional GAN 上又验证了其有效性。
第二个有趣的应用是通过后处理丢弃一部分图片,让剩余图片有更好的生成质量,他们验证了其比传统的 truncation trick 能更好地兼顾质量和多样性,如下表 4 所示:
第三个应用是结合 OHEM(Online Hard Example Mining),在 GAN 训练过程中,通过给低质量生成图片更高的惩罚权重,他们可以让 GAN 生成出更高质量的图片,如下表 5 所示:
在研究者看来,GIQA 是一个新颖且对研究和产业都很有意义的一个研究方向。相信通过本文的抛砖引玉,能有更多的人研究 GIQA 这个领域并对其他任务提供更多的参考价值。
ThinkStation P360 Ultra 迷你专业工作站评测:小巧、高效、极致
用来做 3D 渲染、工业建模、视频剪辑的电脑会有多大?在笔者过去的印象里,创意工作者们往往必须配上一台 ATX 主机般大小的机箱。但随着如今芯片技术的快速发展,原来难以企及的配置被浓缩进了 ThinkStation P360 Ultra 这样小小的一台主机。
这样一台仅仅 3.9L 的小家伙,真的能成为专业企业和创意工作者们的“吃饭工具”吗?IT之家已经收到了 ThinkStation P360 Ultra 的 RTX A5000 系列,并为大家带来了全面的测试。基本配置如下:
外观接口
ThinkStation P360 Ultra 的设计风格依旧延续了 ThinkStation 家族方正严肃的风格,但体积和其他大机型相比甚至只有十分之一。三围仅仅只有 202 毫米 x 87 毫米 x 223 毫米,体积仅 3.9L,重量也控制在 1.8Kg 左右,说它盈盈可握毫不过分。
P360 Ultra 的底部和侧面都提供了防震脚垫,这意味着它既可以竖放也可以横放,轻松适应不同的办公环境。
正面有一个 USB-A 3.2 Gen 2 接口,一个 3.5mm 耳机接口,此外还有两个雷电 4 接口,大部分情况下只使用正面的接口就足以满足办公拓展的需求。
正面的 Think 家族 Logo 在通电后会亮出招牌的小红点,为这台小钢炮注入灵魂。
而后面的接口更是令人震撼,P360 Ultra 在巴掌大的空间内,塞下了 4 个 USB-A 3.2 Gen 2 接口,3 个大 DP 核显接口,4 个 MiniDP 独显接口和两个有线网口。其中一个网口还是 2.5G 的高速网口,如此扩展性足以满足几乎所有的办公需求。在这些接口中,最引人瞩目的便是 3 个大 DP 核显接口,4 个 MiniDP 独显接口组成的豪华视频输出接口。这意味着我们最多可以外接 7 台显示器,在专业绘画、建模、金融交易等场合都能大大提高生产力。不过需要注意的是。包装内并没有准备独显输出所必须的 MiniDP 线缆,最好事先准备一条。
包装内除了机器本体以外,还有一套附赠的键鼠套装,以及一个 300W 的方口电源适配器。这个适配器与联想一些高性能笔记本提供的规格是一致的,可以通用。为了与这样一台主打生产力的迷你工作站搭配。我们选择了 ThinkVision P27q-20 显示器。这台 27 寸的 2K 显示器支持升降旋转,能有效适应多种不同的办公姿态。TUV 护眼认证的加持也让创意工作者们长时间使用也不易疲劳。
拆机烤机
大家是否会好奇,是什么样的设计让它能在这样小的体积内,塞下 RTX A5000 系列这枚强大核心呢?我们这就拆机来看看。
P360 Ultra 拆机非常简单,全程免工具就可以搞定。在背部有一个折叠的小提手,顺着一拉就可以拉出机身,即便是没有装机经验的普通员工也可以操作。
打开后可以看到,它的 CPU 和 GPU 部分用两个独立的散热模组完全隔开,避免散热发生冲突。
只要按下卡扣,就可以提起 CPU 散热模组。下方有两根 16G 的 DDR5-4800MHz 内存。这两个模块通过一枚涡轮风扇形成密闭的风道,散热相当高效。
另一侧的显卡是 RTX A5000 系列显卡。完整的 RTX A5000 体积非常大,想要塞进小机箱肯定不太可能。所以这枚显卡也是经过特别定制的 RTX A5000 系列,体积非常小,但却保持了高端 Ampere 核心完整的特性。
NVIDIA RTX A5000 系列体积不只小巧,还采用了全新的 Ampere 架构设计。它支持实时 RTX 光线追踪、AI 人工智能以及高阶图形计算能力,并且最大功耗仅为 115W,很适合这种迷你工作站使用。核心规格方面,它具备 6144 个 CUDA、192 个第三代 Tensor、48 个第二代实时光影追踪核心,搭配 16G 超大 GDDR6 显存(支持 ECC 纠错),很适合游戏开发、三维设计、影视特效等专业工作。在建模渲染、视频制作类软件中,RTX A5000 系列可以利用 CUDA 为工作提供硬件加速,目前几乎所有的建模软件都会对 NVIDIA 的 GPU 有所优化,所以能做到效率、稳定和兼容性的共存。
翻到背面,P360 Ultra 独特的硬件构造同样给了笔者惊喜。首先映入眼帘的是两个额外的 DDR5 内存插槽。对于需要大内存的 3D 建模来说相当实用,自行增加内存也是毫无难度。
旁边的小风扇下压着的,是两个支持 PCIE4.0*4 的高速硬盘位。主动散热的引入能让高速硬盘们始终保持凉爽,让长时间大文件工作也能保持高速度。自带的硬盘为 512G 的三星 PM9A1,是当今硬盘中的旗舰。除了两个 PCIE4.0*4 的高速硬盘位外,下方还有一个 2.5 寸硬盘位,可以扩展一块机械硬盘,内部拓展性之强令人惊艳。
以上便是 P360 Ultra 别出心裁的内部设计了。整机采用了一个三风扇 三独立风道的设计,那么这样的散热模组性能释放如何呢?我们接下来就烤机试试。使用甜甜圈 FurMark 单烤 15 分钟后,显卡功耗稳定在了 115W 的标准 TDP,温度则是 79℃,全程可以保持在预设功耗。
性能跑分
P360 Ultra 的性能释放还是很不错的。那么理论性能怎么样呢?我们接下来就运行几款跑分软件。RTX A5000 系列在 3DMark Time Spy 中的 GPU 跑分达到了 11111 分,这个成绩大概跟桌面端的 RTX 3060Ti 差不多。但它的最大优势在于翻倍于 RTX 3060Ti 的 16G 大显存。
此外,RTX A5000 系列还支持 RTX 光线追踪,对于一些游戏开发者或者 3D 建模渲染会有一定帮助。
散热模组下方是两条 DDR5 内存,每条 16GB 4800MHz,共 32GB,内存性能极佳,足以满足绝大多数严苛的创意生产需求。
自带的硬盘为 512G 的三星 PM9A1,是一块性能上乘的 Pcie 4.0*4 高速硬盘。此外机身内还有一个额外的 M.2 接口,方便自行扩容。
创意生产
买这样一台迷你工作站,主要作用肯定是创意生产和建模渲染。因此我们先测试几款常用的建模渲染软件。首先是近年来大火的开源建模软件 Blender,Blender Cycles 中由 RTX 加速的 OptiX 光线追踪可提供超快的最终帧渲染。
在视图中使用基于 RTX 加速的 Blender Cycles OptiX 光线追踪技术,为建模和动画提供交互式、照片级写实的渲染能力。支持加速动态模糊渲染和 nanoVBD,以更轻松地进行大量渲染。简而言之,启用 GPU 加速的后,建模效率成倍提升。
我们选了一个超大的 Blender 工程,开启它需要占用 24G 以上的内存,渲染时还需要 10G 以上的显存。而 P360 Ultra 的 32G 大内存和 16G 大显存用来运行它可真是刚刚好。实测使用 Cycles 渲染器渲染时,如果不使用 GPU 加速,纯用 CPU 计算渲染的话,需要 19 分 43 秒完成渲染。
但如果开启 RTX A5000 系列的 GPU 加速的话,速度直接翻了三倍不止,只需要 5 分 52 秒完成。
在另一款常用的渲染工具 V-Ray 中,可以借助 RTX 加速的光线追踪,实现高性能最终帧渲染。借助搭载 AI 的降噪功能,GPU 可进一步加速交互式渲染。
V-Ray 使用 CPU 渲染的分数为 13677 分。GPU CUDA 分数则达到了 1300 分,已经能满足绝大部分建模的需求。
反映到实际的使用场景中,我们选择常用的建模软件 Maya2023 加载一个跑车的模型,并使用 V-Ray 渲染器进行渲染。如果只用 CPU 渲染的话,渲染一张图总共需要 5 分 46 秒。
如果开启 GPU 渲染加速的话,只需要 3 分 17 秒,速度同样快了近一倍。
在另外一款渲染软件 KeyShot 中,它可以藉由 RTX 加速的光线追踪和搭载 AI 的 OptiX 降噪可实现快速的交互式渲染。我们同时跑 CPU 和 GPU 两颗核心,CPU 得分为 2.86,GPU 得分为 52.22,GPU 加速的效果显而易见。
在实际的渲染预览过程中,即便是超大的三维模型也可以实时拖动预览,拖动完成后几秒内就能完成粗模的快速渲染,整个工作流程是很高效的。
↑ Keyshot GIF 预览
最后我们测试一款为 RTX GPU 专门优化的渲染软件:octane。在 octanebench 中,它的分数如下。以 GTX980 的算力为基准,RTX A5000 系列的渲染能力达到了 GTX980 的 3-6 倍。拿来三维渲染自然游刃有余。
接下来我们看看一些平面设计软件,在 AutoCAD 这样的工程绘图软件中,P360 Ultra 也可以调用 GPU 进行加速,即便是很复杂的大型工程,也可以无延迟地拖动编辑。
↑ CAD 大图缩放 GIF 预览
在常用的修图软件 PS 中,可以达到 1364 分,可以流畅运行绝大多数大型 PSD。
笔者尝试打开一个 1G 大的 PSD 文件,仅用时 11 秒 39 就成功打开。
然后笔者给这样一个超大的 PSD 上高斯模糊效果,众所周知高斯模糊是非常吃性能的,但 P360 Ultra 可以实时预览,毫不卡顿。
↑ PS 高斯模糊 GIF 预览
在视频后期这一块,IT之家为大家测试了 PugetBench For Adobe Pr、Adobe Ae 和 Davinci。Pr 是最常见的视频剪辑软件,使用 RTX GPU 自带的 NVENC 编码器可以加速视频的导出,也让剪辑更加顺滑。基于 NVIDIA CUDA 技术的 GPU 加速特效可实现更快速度的实时视频编辑和帧渲染,使用 NVIDIA 编码的输出速度提升最高可达 5 倍。在 Pr 中,CUDA 加速下分数可以达到 850 分,剪辑 8K 视频也不会卡顿,实时回放 4K 视频也不用开代理了。
而在更看配置的视频特效软件 Adobe Ae 中,P360 Ultra 的表现格外出色。基于 NVIDIA CUDA 技术的 GPU 加速特效可以加速 Ae 的效果合成进程,在 Pugetbenhc for Ae 中,CUDA 加速下分数可以达到 1322 分,可以流畅制作绝大多数视频后期特效。
常用的视频调色软件 Davinci 在 NVIDIA CUDA 技术的助力下,由 GPU 加速的关键特效能够更快完成渲染。
实测 PugetBench For Davinci 得分达到了 1620 分,可以做一些比较复杂的视频多级调色,32G 的大内存也能给创作者们带来更大的空间。
笔者这里播放的是一段 8K 的视频素材,在加了多层节点调色后,依旧可以顺畅的进行实时 60 帧预览,剪辑 4K 高帧率视频也不会卡顿,实时回放 8K 视频也不用开代理。
↑ Davinci 8K 素材调色 GIF 预览
以上这些高难度项目都拿下了,日常的综合办公更是不在话下。实测 PCMARK10 中,可以达到 8697 的超高分数,完全可以运行所有的日常办公软件。
总结
在IT之家整个体验的过程中,ThinkStation P360 Ultra 都展现出了一台专业工作站应有的素养。它工作稳定、硬件性能强劲、软件适配也很到位。而在此基础之上,P360 Ultra 还利用独一无二的主板设计,实现了便携与性能的兼顾。在笔者看来,P360 Ultra 非常独立适合创意生产者作为工作机,小巧不占地,也适合企业用户拿来作为办公渲染的工作站,管理更省心。
目前 ThinkStation P360 Ultra 在国内已经上市,具体配置提供了丰富的定制选项,感兴趣的话可以前往联想商城进行定制。
i5-1240P对决R7 6850U:谁才是移动办公首选
此前在移动平台,PConline评测室分别对标压版酷睿处理器和锐龙处理器进行了对比实测,结论显而易见,无论是单线程性能、多线程性能,还是实际的生产力测试,酷睿处理器均取得了“代差式”的完胜——作为移动平台上的明星处理器,i7-12700H和i5-12500H凭借超高的能效以及45W的低功耗让轻薄本也拥有了强悍的性能。搭载标压处理器的轻薄本越来越受青睐,那原本面向轻薄本的U系列低功耗版处理器呢?
虽然标准电压处理器对提高生产力而言固然具有非凡的潜力,而对于商务人士以及企业IT人员来说,低电压处理器带来的全天候工作能力同样非常重要。如此的细分市场,也让低电压处理器的产品在带来快速响应、超薄便携的同时,拥有了自己独特的价值。
因此,针对商务便携PC市场,Intel推出了第12代酷睿P系列处理器,让其产品线更加丰富,也带来了全新的变化。P系列处理器提供了和标压版H系列处理器相同的核心线程规格,入门级产品就达到了10核心(2P 8E)12线程起,顶配更是配备了14核心(6P 8E)20线程的算力。TDP功耗则设定为更低的28W。
今天我们分别选择了搭载英特尔第12代酷睿i5-1240P处理器和搭载AMD Pro 6850U处理器的两台主打移动办公的联想ThinkPad X13来进行对比测试。之所以选择这两款产品,是因为ThinkPad笔记本电脑一直以来稳定耐用、安全可靠的口碑,在移动办公领域极具代表性。同时通过对比电商平台,两款产品在价格上也极为接近,这让本次测试更为公平(目前京东上搭载i5-1240P的价格是6999元,而R7 Pro 6850U是7299。)
除了CPU不同外,这两台ThinkPad X13接口也略有不同:酷睿版搭载了两个雷电4接口, 而锐龙版方面则将规格降低为普通的USB-C 4.0和USB-C 3.2Gen2,所以酷睿版无疑能带来更好的连接体验,比如通过雷电扩展坞可以两个4K的显示器,从而提供了更好的办公体验(设想一下两个大屏带来的工作效率的提升:))。
值得一提的是,ThinkPad X13酷睿版还内置了4G网络模块,并出厂赠送了12个月的国内流量套餐,让用户即使在没有无线网络的情况下,也能实现全时互联。所以看起来酷睿版6999元的价格相比7299元的锐龙版更加物超所值。
价格相似,处理器也主要区别,相信本次对比测试能够很直观体现I芯和A芯之间的性能区别,接下来看看它们的表现有何异同。
●硬件对比
处理器方面,酷睿版本采用的是12核心(4P 8E)16线程的酷睿i5-1240P,P核最大可睿频至4.4GHz、E核最大频率为3.3GHz,12MB三级缓存,基础功耗为28W,最低保证功耗为20W。
值得一提的是,酷睿i5-1240P支持Intel vPro博锐平台,具有可管理性、高安全性和高效节能等诸多特性。此外,联想ThinkPad X13酷睿版还通过了Intel Evo认证。该认证极为苛刻,要求设备具有超过9小时的真实使用场景续航时间、小于1秒的瞬间唤醒、持续响应、快速充电等25项最常见的“痛点”需求,相当于为用户提供了一个“更高阶”选择,带来更为卓越的使用体验。
锐龙版搭载的处理器则是R7 Pro 6850U,8核心16线程,使用了Zen 3 架构设计,6nm制程工艺,基础频率为2.7GHz,最大加速频率为3.7GHz,16MB三级缓存,TDP功耗为15-28W。(锐龙Pro是 AMD推出的商用解决方案平台,具有强劲、安全、可靠三大专属特性。)
从参数上看,酷睿i5-1240P的核心数量有着一定的优势,而锐龙7 Pro 6850U则有着更高的频率和更大的三级缓存。
其他硬件方面,这两款联想ThinkPad X13 的内存也有明显差异: 酷睿版搭载的是16GB LPDDR5 4800MHz,锐龙版则是16GB LPDDR5 6400MHz,理论上后者更占优势。
而在网络配置方面,除了上面提到了酷睿版拥有4G LTE连接的能力,它还配备了Intel AX211 160MHz的WiFi模块。我们都知道Intel的AX200系列是目前性能更强、更稳定的无线网卡,这点在面对外出办公需要移动连接WiFi热点时尤为重要。锐龙版在WiFi的配置上则是采用了高通WCN685x网卡。
其他方面两者并无区别,这两款联想ThinkPad X13 都采用了13.3英寸的屏幕、512GB PCIe SSD,并都通过了十二项军标认证,面对多种严酷环境依然可以保持稳定运行。
接下来,我们就针对这两款搭载不同平台的联想ThinkPad X13,主要对更贴近移动办公的CPU性能基准、生产力、续航等方面进行测试。
对于移动办公用户来说,笔记本电脑最重要的是无论是否插电,都能随时随地提供快速响应、更高效率的能力。所以整个测试过程,两款设备均在插电和不插电下进行,电源模式在这两种状态下均设置为“最佳性能”,其他均为系统默认。
一、基准性能测试:
●CPU-Z
图片数据说明:分数越高越好
首先看一下CPU-Z自带的基准测试。插电状态下,酷睿i5-1240P单线程分数为666.3、多线程分数为5299.4;锐龙7 6850U单线程分数为576.8、多线程分数为4540.8。
酷睿i5-1240P在单线程领先锐龙7 6850U15%,多线程领先有17%。
图片数据说明:分数越高越好
不插电状态下,两款处理器的性能差距进一步拉大,酷睿i5-1240P单线程分数为665.6,相比较插电状态下没有任何性能上的下滑,多线程分数则为3224.2;锐龙7 6850U单线程分数下滑明显,为336.6、多线程分数为3403.3。此环节,酷睿i5-1240P在多线程稍稍落后5%,但单线程却领先锐龙7 6850U有98%。在实际体验中,尤其是需要更好单核性能的时候,酷睿i5-1240P占据较大优势,
●Cinebench R23
图片数据说明:分数越高越好
Cinebench R23跑分中,插电状态下,锐龙7 6850U单核心分数为1553,多核心为9906。酷睿i5-1240P在多核心与锐龙7 6850U相差不多,分数为8191,单核心方面二者也基本持平。
图片数据说明:分数越高越好
不插电状态下,锐龙7 6850U性能下滑十分明显,其单线程分数为768,多线程6330,酷睿i5-1240P依然带来了稳定输出,多线程领先对手4%,单线程更是领先102%。
●Geekbench 5
图片数据说明:分数越高越好
Geekbench 5是一个支持跨平台运行的基准测试软件,插电状态下酷睿i5-1240P单核心分数为1613,多核心分数为9256。锐龙7 6850U单核心分数1535,多核心分数则为7948。酷睿i5-1240P单核心领先5%,多核心领先13%。
图片数据说明:分数越高越好
不插电状态下,出现了在CPU-Z和Cinebench R23测试中相似的情况,酷睿i5-1240P的单核性能大幅强于锐龙7 6850U,这次是领先了107%,多核心成绩则是领先了13%。
●3DMark CPU Profile
3DMark也推出了独立的CPU Profile项目,用于测试处理器不同线程下的性能,以更好的对应不同类型的游戏负载。
图片数据说明:分数越高越好
插电状态下,酷睿i5-1240P与锐龙7 6850U的最大线程分数相差无几。
图片数据说明:分数越高越好
不插电状态下,则还是酷睿i5-1240P表现出了其优势的一面,领先锐龙7 6850U 23%之多。
二、生产力性能测试:
●V-Ray 5 Benchmark
V-Ray是由专业的渲染器开发公司CHAOSGROUP开发的渲染软件,是业界非常受欢迎的渲染引擎。本次使用V-Ray 5独立的benchmark进行测试,
图片数据说明:分数越高越好
此环节的插电测试下,酷睿i5-1240P得分为6426,锐龙7 6850U得分7108,锐龙7 6850U反超了酷睿i5-1240P大约10%。
图片数据说明:分数越高越好
但是在不插电状态下,依旧是酷睿i5-1240P的强项,其相较锐龙7 6850U有7%的领先优势。
●Corona Render
Corona Render渲染器是业界后起之秀,在渲染质量和速度上其实非常优秀,目前提供了Corona 1.3 Benchmark基准测试程序。
图片数据说明:分数越低越好
此环节,在插电状态下,二者的渲染时间很接近,锐龙7 6850U用时较少。
图片数据说明:分数越低越好
不插电状态下,酷睿i5-1240P反超对手,渲染效率更高。
●Blender Benchmark
Blender是一款开源的跨平台全能三维动画制作软件,提供从建模、动画、材质、渲染、到音频处理、视频剪辑等一系列动画短片制作解决方案。
图片数据说明:分数越高越好
在整个渲染过程中,不用场景下二者互有胜负,性能基本一致。
图片数据说明:分数越高越好
但是在不插电的状态下,酷睿i5-1240P的每分钟采样更多,
●PCMark10
PCMark 10 含有一整套全面的测试项,涵盖现代办公场所中的各种任务,是被广泛认可的计算机综合性能测试软件,除了处理器以外,内存、显卡、固态硬盘性能也会影响分数。
图片数据说明:分数越高越好
同样首先来看插电状态下,锐龙7 6850U相较酷睿i5-1240P有大约10%的领先优势。
图片数据说明:分数越高越好
不插电状态下,则仍然是酷睿i5-1240P取得了30%的领先优势。
●Crossmark
CrossMark是一款生产力测试工具,包含生产率、创造性、反应能力三个维度,反映出PC的综合性能。
图片数据说明:分数越高越好
在插电状态下,酷睿i5-1240P总体分数为1507、生产率分数为1399、创造性分数为1744、反应能力分数为1215;与之对比锐龙7 6850U总体分数为1264、生产率分数为1249、创造性分数为1453、反应能力分数为864,酷睿i5-1240P全面领先。
图片数据说明:分数越高越好
不插电状态下,酷睿i5-1240P将优势进一步扩大,总体领先100%。
●UL Procyon办公
UL Procyon是一款专门测试文档表格办公、视频、图片编辑等生产力软件的自动化测试程序。此环节我们采用Procyon文档办公生产力测试,其会调用微软Office套件,具体包含Word、Excel、PowerPoint和Outlook。
图片数据说明:分数越高越好
插电状态下,酷睿i5-1240P得到了5661的总分,其中Word为6782、Excel为5735、PPT为5783、Outlook为3741。
锐龙7 6850U得到了5191的总分,其中Word为6207、Excel为4819、PPT为5580、Outlook为3646。
总的来说,酷睿i5-1240P领先锐龙7 6850U大约9%。
图片数据说明:分数越高越好
不插电状态下,酷睿i5-1240P依旧维持领先,总体得分高于锐龙7 6850U 14%。
三、烤机和续航测试:
●AIDA64 FPU
在烤机环节,我们采用AIDA64进行FPU烤机,来看看这两款处理器的性能释放水平。
酷睿i5-1240P在烤机10分钟后,此时温度71℃,功耗稳定在19W左右,P核频率在1.6GHz,E核频率1.3GHz。
这样的表现低于官方标注的基础28W的TDP,这应该是联想对ThinkPad X13酷睿版的功耗释放调教较为保守的缘故。
锐龙7 6850U烤机10分钟后,温度稳定在72℃,功耗23W左右,全核频率在2.7Hz左右浮动,整个过程中释放表现平稳。
●PCMark10办公续航
图片数据说明:分数越高越好
续航方面采用PCMark 10的现代办公进行测试,这两款联想ThinkPad X13笔记本电脑都配备了54.7Wh容量的电池。此环节将电源模式更改为“最佳能效”,为保证正常观看屏幕,亮度更改为50%。
酷睿版和锐龙版都是从100%的满电状态测试至剩余3%的电量,前者可以提供6小时48分钟的续航。后者则可以提供8小时24分钟的续航。
二者都可以实现超过6小时的持久续航,对于一般用户来说完全能够实现一天的工作需求。另外,虽然锐龙版的有一个半小时的续航优势,但是通过以上的测试,可以看到酷睿版的在不插电状态下的性能更好,也就是说在实际应用中的效率更高,能够在移动办公中更快地完成工作。如果用PCMark10的待机时间和CrossMark不插电时性能综合考量的话(待机时间酷睿版比锐龙版低约20%,而性能酷睿版比锐龙版高100%),毫无疑问酷睿版更具优势。
Evo认证和vPro平台加持:
影响笔记本移动办公使用体验的因素很多,处理器的性能只是基础,还要考虑到平台整体解决方案的强弱。具体来说,ThinkPad X13酷睿版还支持英特尔vPro平台Essentials系列,能够帮助中小企业及部门级用户实现笔记本的硬件级远程管理和丰富的安全功能。
具体来说,在管理层面,英特尔vPro平台具备强大的硬件带外管理功能。通过云端或本地部署的EMA平台,授权运维人员可在电脑连接网线和电源的情况下实现不依赖操作系统的重启、开关机、BIOS设置修改等功能。对于外勤、出差或居家办公过程中所遇到的各类软件和操作系统问题而言,这样的远程运维功能无疑意义重大;它能够帮助企业构建覆盖更多场景且具备更高可靠性的工作流,并大幅降低运维工作量和成本。
在安全性层面,英特尔vPro平台所搭载的硬件安全盾设计则能够实现多个层面的自动安全防护。能够对BIOS、固件等底层软件进行可信归根的认证,防止非法BIOS和固件所带来的入侵和数据泄露隐患;硬件安全盾还能够对OS、驱动、应用软件和进程进行实时保护,防止各类代码注入、病毒以及恶意挖矿行为。同时英特尔vPro平台的硬件安全盾还融入了先进的AI安全算法,能够对各类代码的运行结果进行预测。一旦发现某些代码的运行可能威胁系统安全或造成数据泄露,会自动终止代码运行。
而为了实现个人用户对轻薄本极致使用体验的追求,ThinkPad X13酷睿版在i5-1240P处理器和众多先进硬件的加持下,还通过了英特尔Evo第三版规范的认证。除了可以提供强劲的基础性能;还可以在睡眠状态下1秒唤醒,迅速进入工作状态;确保提供9小时以上的续航时间;能够通过30分钟的充电获得至少4小时的续航时间;能够通过符合Wi-Fi 6标准的网卡获得更高的网络连接速度与质量;能够通过Iris Xe核显享受更好的影音娱乐体验;能够通过40Gb/s带宽的Thunderbolt 4实现强大拓展性……在使用体验方面,真正意义上做到优质且全面的跃进。
总结:
通过以上CPU性能基准、生产力场景等多方面对比测试可以看出,酷睿i5-1240P要比锐龙7 6850U的表现更为出色。
我们可以看到在插电状态下,在原本以为是AMD强势的多线程测试上,酷睿i5-1240P并没有被拉开差距,甚至还能凭借E核 P核的混合架构在大部分测试环节超越锐龙7 6850U。而在实际体验中,尤其是需要更好单核性能的时候,酷睿i5-1240P更占优势,这还是在性能调校比较保守的情况下。况且,锐龙版还配备了更高频率的内存,相信如果单纯CPU性能的话,酷睿版会取得完胜。
而在不插电的状态下,酷睿版的性能也显然更加坚挺一些,其在部分测试项目上甚至同插电时几乎一致,多数项目下滑也都在10%之内,依然保持着更高的生产力水准,这也明显优于锐龙版本。
所以在面对大部分时间不插电的移动办公场景时,酷睿i5-1240P明显更为合适。这也反映了Intel、AMD的整体策略,Intel强调始终完整高性能,AMD则会在性能、续航时间进行妥协,尽可能保证续航。
当然别忘了酷睿i5-1240P只是一款i5级别的中端处理器,还有比它高端、性能更强劲的酷睿i7处理器可供选择。
而相比英特尔的强势,AMD今年在低功耗笔记本平台上的战将并不多,虽然AMD在低功耗平台还有更高端的锐龙9 6860Z处理器,但也仅仅是功耗和频率上的提升,实际性能相信也并不能给人带来惊喜。
总的来说,在移动平台,AMD与Intel依然存在较大差距。英特尔第12代酷睿处理器凭借着全新工艺以及Alder Lake架构带来的超强性能继续领跑整个PC市场,就像今天的ThinkPad X13酷睿版,它的性能全面超越锐龙版,并且拥有更快速更全面的连接(配备雷电4接口) 支持LTE连接(内置4G网络模块并附送12个月4G流量套餐),更不用说还有Evo和vPro的加持。如果你想要一台办公效率更高、性能体验更好、随时随地满血状态的商务便携本,毫无疑问配备Intel处理器的产品更值得选择。
*本文所有测试软件均为实际使用、真实测试,不代表任何品牌方立场。
目标检测算法连连看:从Faster R-CNN 、 R-FCN 到 FPN
雷锋网按:本文为雷锋字幕组编译的技术博客,原标题 What do we learn from region based object detectors (Faster R-CNN,R-FCN, FPN)?,作者为 Jonathan Hui 。
翻译 | 唐青 李振 整理 | 凡江
在这个系列中,我们将对目标检测算法进行全面探讨。 第 1 部分,我们介绍常见的基于区域的目标检测器,包括 Fast R-CNN , Faster R-CNN , R-FCN 和 FPN 。 第 2 部分,我们介绍单步检测器(single shoot dectors, SSD )。第 3 部分,我们探讨算法性能和一些具体的例子。通过在相同的环境研究这些算法,我们研究哪些部分在其作用,哪些部分是重要的,可以在哪些部分进一步改进。希望通过对算法如何发展到今天的研究,会给我们未来的研究提供方向。
第1部分:我们从基于区域的目标检测器中学到了什么(Faster R-CNN,R-FCN,FPN)?
第2部分:我们从单步检测器中学到了什么(SSD,YOLO),FPN 和 Focal loss?
第3部分:目标检测的设计选型,经验教训和发展趋势?
滑动窗口检测器(Sliding-window detectors)
自从 AlexNet 赢得了 2012 年 ILSVRC 挑战的冠军,使用 CNN 进行分类成为领域的主导。一种用于目标检测的简单粗暴的方法是将滑动窗口从左到右,从上到下滑动使用分类来识别目标。为了区分在不同视觉距离下的目标类型,我们使用了不同尺寸和高宽比的窗口。
我们按照滑动窗口从图片中剪切出部分图像块。由于通常分类器都采用固定的图像大小,所以图像块需要进行形变。然而,这对分类精度并没有什么影响,应为分类器训练时也使用了形变的图像。
形变的图像块被送进 CNN 分类器中提取 4096 个特征。然后,我们用一个 SVM 分类器进行分类,用一个线性回归器得到边界框。
以下是伪代码。 我们生成了很多窗口来检测不同位置、不同形状的目标。 为了提高性能,减少窗口数量是一个显而易见的解决方案。
选择性搜索(Selective Search)
不再用简单粗暴的方法,我们用区域提议方法(region proposal method)生成感兴趣区域 ( regins of interest, ROIs ) 来进行目标检测。在选择性搜索算法(Selective Search, SS)中,我们让每个独立像素作为一个起始的组。然后,计算每个组的纹理,合并最接近的两个组。为了避免一个区域吞所有,我们优先合并较小的组。持续进行合并,直到所有可能合并的区域均完成合并。下图中,第一行展示了如何进行区域生长。第二行展示了在合并过程中所有可能的 ROIs 。
R-CNN
R-CNN 利用区域提议方法(region proposal method)生成了约 2000 个感兴趣区域(regins of interest, ROIs)。这些图像块进行形变到固定的大小,分别送入到一个 CNN 网络中。然后,经过全连接层,进行目标分类和边界框提取。
以下是系统的工作流。
利用数量更少,但质量更高的 ROIs ,R-CNN 比滑动窗口的方法运行的更快、更准确。
边界框回归器(Boundary box regressor)
区域提议方法的计算量很大。为了加速这个过程,我们常采用一个简易版的区域提议网络来生成 ROIs ,然后,接线性回归器(使用全连接层)来提取边界框。
Fast R-CNN
R-CNN 需要足够多的提议区域才能保证准确度, 而很多区域是相互重叠的。R-CNN 的训练和推理过程都很缓慢。例如,我们生成了 2000 个的区域提议,每个区域提议分别进入 CNN。换句话说,我们对不同的 ROIs 重复了进行了 2000 次的提取特征。
CNN 中的特征映射表达了一个更紧密的空间中的空间特征。我们能否利用这些特征映射来进行目标检测,而不是原始图像?
我们不再为每个图像块重新提取特征,而是在开始时采用一个特征提取器(一个 CNN 网络)为整个图像提取特征。然后,直接在特征映射上应用区域提议方法。例如,Fast R-CNN 选择 VGG16 的卷积层 conv5 来生成待合并 ROIs 来进行目标检测,其中,包括了与相应特征的映射。我们利用 ROI Pooling 对图像块进行形变转换成固定大小,然后将其输入到全连接层进行分类和定位(检测出目标的位置)。由于不重复特征提取,Fast R-CNN 显著的缩短了处理时间。
以下是网络工作流:
在下面的伪代码中,计算量很大的特征提取操作被移出了 for 循环。由于同时为 2000 个 ROIs 提取特征,速度有显著的提升。Fast R-CNN 比 R-CNN 的训练速度快 10 倍,推理速度快 150 倍。
Fast R-CNN 的一个主要特点是整个网络(特征提取器,分类器和边界框回归器)可以通过多任务损失 multi-task losses(分类损失和定位损失)进行端到端的训练。这样的设计提高了准确性。
ROI Pooling
由于 Fast R-CNN 使用了全连接层,因此我们应用 ROI Pooling 将不同大小的 ROIs 转换为预定义大小形状。
举个例子,我们将 8×8 特征映射转换为预定义的 2×2 大小。
左上:特征映射图。
右上:ROI(蓝色)与特征映射图重叠。
左下:我们将 ROI 分成目标维度。 例如,我们的目标大小是 2×2,我们将 ROI 分为 4 个大小相似或相等的部分。
右下:取每个部分的最大值,结果是特征映射转换后的结果。
结果,得到了一个 2×2 的特征块,我们可以将它输入到分类器和边界框回归器中。
Faster R-CNN
Fast R-CNN 采用类似选择性搜索(Selective Search)这样额外的区域提议方法。 但是,这些算法在 CPU 上运行,且速度很慢。测试时, Fast R-CNN 需要 2.3 秒进行预测,而其中 2 秒花费在生成 2000 个ROIs 上。
Faster R-CNN 采用与 Fast R-CNN 相似的设计,不同之处在于它通过内部深度网络取代区域提议方法。 新的区域提议网络(Region Proposal Network, RPN)效率更高。单副图像生成 ROIs 只需要 10ms 。
网络工作流。区域提议方法被新的卷积网络(RPN)取代。
区域提议网络(Region proposal network)
区域提议网络( RPN )用第一个卷积网络输出的特征图作为输入。在特征图上用 3×3 的滤波器进行滑动(滤波),采用诸如 ZF 网络(如下图)的卷积网络来得到未知类的建议区域。其他如 VGG 或者 ResNet 可以被用来提取更全面的特征,但需以速度为代价。 ZF 网络输出的 256 个值分别被送入两个不一样的全连接层来预测边界框和对象性分数(2 objectness score)。对象性描述了框内是否包含有一个物体。我们可以用回归器来计算单个物体的分数,但是为了简单起见,Faster R-CNN使用了一个分类器分类出两种可能的类别:「 存在物体 」类和「 不存在物体/背景 」类。
RPN 对特征图里的每个位置(像素点)做了 K 次猜测。因此 RPN 在每个位置都输出 4×k 个坐标和 2×k 个分数。以下图例演示了一个使用 3×3 过滤器的 8×8 特征图,它一共输出 8×8×3 个兴趣区( ROI )( 当k=3时)。右侧图例展示了在单个位置得到的 3 个提议区域。
我们现在有 3 个猜测,随后我们也会逐渐改善我们的猜想。因为我们最终只需要一个正确的猜测,所以我们使用不同形状和大小的的初始猜测会更好。因此, Faster R-CNN 不是随机的选择提议边界框。而是预测了相对于一些被称为锚的参考框的左上角的偏移量,比如 x, y 。因为我们约束了偏移量,所以我们的猜测仍然类似与锚。
为了对每个位置都进行 k 次预测,我们需要在每个位置中心放置 k 个锚。每次预测都和不同位置但是相同形状的特定锚相关。
这些锚都是精心预选好的,所以它们多种多样,同时非常合理的覆盖了不同尺度和不同长宽比的现实生活中的物体。这使了初始训练将具有更好的猜测,同时允许每次预测都有特定、不同的形状。这种方式使早期的训练更加稳定和容易。
Faster R-CNN 使用了更多的锚。Faster R-CNN 在一个位置上使用了 9 个锚:3 种不同尺度并使用三种长宽比。在每个位置使用 9 种锚,所以对于每个位置,它一共产生了 2×9 个对象性分数和 4×9 个坐标。
锚在不同的论文中也被称为先验或者默认边界框。
R-CNN的性能
如下图,Faster R-CNN 要快得多。
基于区域的全卷积网络
假设我们只有一张特征图用来检测脸上的右眼。我们是否可以用此来决定脸的位置呢?是可以的。因为右眼应该位于一张面部图像的左上角,我们也可以用此信息来确定脸的位置。
如果我们有另外的特征图专门用来分别检测左眼、鼻子、嘴,我们可以将这些结果结合在一起使对脸部的定位更准确。
那为什么我们要如此麻烦呢?在 Faster R-CNN 里,检测器使用多个全连接层来做预测,有 2000 多个 ROI ,这消耗很高。
R-FCN 通过减少每个 ROI 需要的工作总量来提高速度,以上基于区域的特征图独立于 ROIs ,同时可以在每一个ROI的外部进行计算。接下来的工作就更简单了,因此 R-FCN 比 Faster R-CNN 要快。
我们可以想想一下这种情况,M 是一个 5*5 大小,有一个蓝色的正方形物体在其中的特征图,我们将方形物体平均分割成 3*3 的区域。现在我们从 M 中创建一个新的特征图并只用其来检测方形区域的左上角。这个新的特征图如下右图,只有黄色网格单元被激活。
因为我们将方形分为了 9 个部分,我们可以创建 9 张特征图分别来检测对应的物体区域。因为每张图检测的是目标物体的子区域,所以这些特征图被称为位置敏感分数图(position-sensitive score maps)。
比如,我们可以说,下图由虚线所画的红色矩形是被提议的 ROIs 。我们将其分为 3*3 区域并得出每个区域可能包含其对应的物体部分的可能性。例如, ROIs 的左上区域中存在左眼的可能性。我们将此结果储存在 3*3 的投票阵列(如下右图)中。比如,投票阵列 [0][0] 中数值的意义是在此找到方形目标左上区域的可能性。
将分数图和 ROIs 映射到投票阵列的过程叫做位置敏感 ROI 池化(position-sensitive ROI-pool)。这个过程和我们之前提到的 ROI pool 非常相似。这里不会更深入的去讲解它,但是你可以参考以后的章节来获取更多信息。
在计算完位置敏感 ROI 池化所有的值之后,分类的得分就是所有它元素的平均值。
如果说我们有 C 类物体需要检测。我们将使用 C 1个类,因为其中多包括了一个背景(无目标物体)类。每类都分别有一个 3×3 分数图,因此一共有 (C 1)×3×3 张分数图。通过使用自己类别的那组分数图,我们可以预测出每一类的分数。然后我们使用 softmax 来操作这些分数从而计算出每一类的概率。
接下来是数据流(图),比如我们的例子中,k=3。
至今为止我们的历程
我们从最基础的滑动窗口算法开始。
然后我们尝试减少窗口数,并尽可能的将可以移出 for-loop 的操作移出。
在第 2 部分里,我们更加完全的移除了 for-loop 。单次检测器(single shot detectors)使物体检测能一次性完成,而不需要额外的区域提议步骤。
RPN,R-FCN,Mask R-CNN的延伸阅读
FPN 和 R-FCN 都要比我们在这里所描述的更加复杂,如果您想进一步学习,请参考如下:
https://medium.com/@jonathan_hui/understanding-feature-pyramid-networks-for-object-detection-fpn-45b227b9106c
https://medium.com/@jonathan_hui/understanding-region-based-fully-convolutional-networks-r-fcn-for-object-detection-828316f07c99
博客原址 https://medium.com/@jonathan_hui/what-do-we-learn-from-region-based-object-detectors-faster-r-cnn-r-fcn-fpn-7e354377a7c9
雷锋网雷锋网
雷锋网雷锋网
-
红嫁衣游戏攻略完整版31MB冒险游戏
-
太空生存冒险游戏最新版36MB冒险游戏
-
摩托车战斗竞赛26.01MB跑酷竞速
-
迷你游戏躲猫猫破解版无敌皮肤包30.42MB冒险游戏
-
无敌割草人游戏官方版45MB策略经营
-
火柴人战争遗产无限钻石版僵尸模式最新版下载安装快速88.92MB角色扮演
- 达拉然下水道在哪(炉石传说达拉然大劫案怎么打 达拉然大劫案全章节攻略)
- 亚马逊、Meta财报超预期!激励科技股与加密货币齐涨
- 神奇海洋12月18日潜水艇答案 人类模仿哪个海洋生物制造潜水艇
- 乔碧萝逗笑北野武(少女变大妈的乔碧萝,终归是靠骚操作把自己玩死了)
- 异界气息怎么净化(DNF:浓缩拍卖行崩盘,体验服100级异界删除,并未增加新途径兑换)
- 逃跑吧少年霸天斧给谁用 逃跑吧少年霸天虎卡牌搭配
- 我国有立春看夏的说法指的是立夏时节 蚂蚁庄园5月6日答案早知道
- 太空行动怎么变成人类 变成人类方法介绍
- 美酒节任务攻略(暴雪偷懒取消TBC火焰节,冰霜镰刀、美酒节战羊和无头坐骑全没有)
- 蚂蚁庄园中西医蚂蚁庄园今天的答案是中西医
-
元梦之星手机版最新版20231.11GB | 游戏2023-09-28
-
少女前线2追放wiki公测103.23MB | 游戏2023-09-28
-
孤独战机378.51MB | 游戏2023-09-28
-
夸父追日22.98MB | 游戏2023-09-28
-
烟雨江湖v1.124.48452 | 游戏2023-09-28
-
苍之纪元v1.0.827 | 游戏2023-09-28