投稿指南
一、稿件要求: 1、稿件内容应该是与某一计算机类具体产品紧密相关的新闻评论、购买体验、性能详析等文章。要求稿件论点中立,论述详实,能够对读者的购买起到指导作用。文章体裁不限,字数不限。 2、稿件建议采用纯文本格式(*.txt)。如果是文本文件,请注明插图位置。插图应清晰可辨,可保存为*.jpg、*.gif格式。如使用word等编辑的文本,建议不要将图片直接嵌在word文件中,而将插图另存,并注明插图位置。 3、如果用电子邮件投稿,最好压缩后发送。 4、请使用中文的标点符号。例如句号为。而不是.。 5、来稿请注明作者署名(真实姓名、笔名)、详细地址、邮编、联系电话、E-mail地址等,以便联系。 6、我们保留对稿件的增删权。 7、我们对有一稿多投、剽窃或抄袭行为者,将保留追究由此引起的法律、经济责任的权利。 二、投稿方式: 1、 请使用电子邮件方式投递稿件。 2、 编译的稿件,请注明出处并附带原文。 3、 请按稿件内容投递到相关编辑信箱 三、稿件著作权: 1、 投稿人保证其向我方所投之作品是其本人或与他人合作创作之成果,或对所投作品拥有合法的著作权,无第三人对其作品提出可成立之权利主张。 2、 投稿人保证向我方所投之稿件,尚未在任何媒体上发表。 3、 投稿人保证其作品不含有违反宪法、法律及损害社会公共利益之内容。 4、 投稿人向我方所投之作品不得同时向第三方投送,即不允许一稿多投。若投稿人有违反该款约定的行为,则我方有权不向投稿人支付报酬。但我方在收到投稿人所投作品10日内未作出采用通知的除外。 5、 投稿人授予我方享有作品专有使用权的方式包括但不限于:通过网络向公众传播、复制、摘编、表演、播放、展览、发行、摄制电影、电视、录像制品、录制录音制品、制作数字化制品、改编、翻译、注释、编辑,以及出版、许可其他媒体、网站及单位转载、摘编、播放、录制、翻译、注释、编辑、改编、摄制。 6、 投稿人委托我方声明,未经我方许可,任何网站、媒体、组织不得转载、摘编其作品。

深兰科技赛道|ICPR2020图表信息提取竞赛方案分享

来源:中国科技信息 【在线投稿】 栏目:综合新闻 时间:2021-03-04
作者:网站采编
关键词:
摘要:在日前结束的第25届国际模式识别会议(ICPR2020)上,深兰科技DeepBlueAI团队同台竞技联想、华南理工、合合等队伍,摘得“图表信息提取竞赛”总成绩的冠军。 该竞赛由6个赛道7个子任务组

在日前结束的第25届国际模式识别会议(ICPR2020)上,深兰科技DeepBlueAI团队同台竞技联想、华南理工、合合等队伍,摘得“图表信息提取竞赛”总成绩的冠军。

该竞赛由6个赛道7个子任务组成,其中赛道6有两个子任务,每个子任务又分Adobe Synth、UB PMC两个数据集。7个子任务按照数据集单独计分,最终按照总分进行排名。最终,DeepBlueAI团队拿下4个赛道冠军,以总分35分拿到总成绩第一名。

ICPR2020图表信息提取

竞赛冠军方案

该比赛各任务涵盖图表分类、案例分析、图元素提取等,数据类别存在着分布极为不均衡的问题。

7个赛道分别为:赛道一,图表分类;赛道二,检测并识别图表中的文字区域;赛道三,识别图表图像中文本功能/角色;赛道四,对坐标轴上刻度点进行检测并与刻度标签文本框关联;赛道五,关联图例标签文本与图例样式元素;赛道六,第一个子任务对图表元素进行检测与分类,第二个子任务提取用于生成图表图像的原始数据。

下面对比较有竞争力的三、四、五、六赛道的解决方案进行技术分享。

赛道三

赛道三以文本位置和文本内容为输入,识别图表图像中每个文本的角色,6个类别如图所示。我们的方法包括两个步骤:特征提取和分类器分类。使用文本属性来定义特征向量,使用的分类器是Random Forest [1]和LightGBM [2]。

特征由文本框属性和文本内容组成,这些特征可分为三组。第一组包含框的长宽比、文本是否为数字、文本是否为多行、文本角度、文本长度和图表类型。第二组包括文本框的三种相对位置信息,也就是相对于全局边框、原点和图例的位置。第三组包含水平/垂直对齐文本框的数量和对齐文本框的水平/垂直范围,判断框是否对齐时,分别使用文本框的中心点、左上角和右下角。

使用随机森林和LightGBM对文本角色进行分类。随机森林的一个优点是在缺少特征的情况下仍然具有良好的性能,LightGBM具有训练效率高、精度高等优点。在训练模型时,每个类别的损失权重与输入数据的频率成反比。

赛道四

赛道四需要检测出每个X轴或Y轴上的刻度点并与对应的刻度标签文本框关联。该赛道使用修改后的F-measure对每个轴评分,然后对所有轴进行得分平均。对每个检测到的刻度点,根据其距离真实刻度点之间的距离,给出0到1之间的评分。Precision计算方法为评分总和除以预测数。召回率的计算方法是得分的总和除以真实标注刻度点的数量。

对于该任务,我们将整个任务拆分为刻度点检测和匹配两个步骤。

在刻度点检测任务中,我们将该任务视为标准的关键点估计问题。参考CenterNet,使用DLA-34作为backbone,从底层添加更多的跳转连接,并在上采样阶段将每个卷积层替换为可变形的卷积层,最后获得尺寸为1/4的输出特征图,然后将特征图送入头部分支。在头部分支中,包括三个分支。首先是刻度点检测分支,在此分支中预测的热图中的峰值对应于刻度点的位置,并通过两个不同的特征图将点分类为X轴或Y轴的刻度点。为了恢复由输出步幅引起的离散化误差,在Offset分支中预测了修正刻度点位置的偏移量。在第三个分支中(OTB),预测了刻度点到刻度标签文本框中心的偏移,该偏移仅在训练阶段使用。

为了训练刻度点检测分支,我们使用Focal Loss作为损失函数来进行逐像素逻辑回归。为了训练Offset分支,我们使用在人脸Landmark定位任务中提出的Wing Loss,其设计目的是提高深度神经网络针对中小型误差的学习能力,并使用Smooth L1作为训练OTB分支的损失函数。

在检测出X轴与Y轴上的刻度点后,首先使用线性分布检查来过滤掉异常检测点,然后基于刻度点与标签文本框之间X轴或Y轴的L1距离,将刻度点和标签文本框进行匹配。

在Adobe Synth,UB PMC验证集及Test Challenge阶段不同实验得分如表1,2所示,可以看出不使用预训练模型与添加OTB分支能够取得更好的得分。最后通过模型融合我们在测试阶段分别取得了99.90%与81.28%的成绩,取得第一。

表1

文章来源:《中国科技信息》 网址: http://www.zgkjxx.cn/zonghexinwen/2021/0304/1412.html



上一篇:长安打出的“王牌”,全系8AT+科技座舱,预售不
下一篇:润欣科技(300493.SZ)控股股东润欣信息及其一致行动

中国科技信息投稿 | 中国科技信息编辑部| 中国科技信息版面费 | 中国科技信息论文发表 | 中国科技信息最新目录
Copyright © 2018 《中国科技信息》杂志社 版权所有
投稿电话: 投稿邮箱: