训练Tesseract4.0
从官网下载已经训练好的中文训练数据,发现效果比较差。这里结合官方教程及自己的实践记录下如何训练Tesseract4.0.0。本文共分成10个部分来进行讲解。
参看:
1. 介绍
Tesseract4.0.0包含了一个新的基于神经网络的识别引擎,该引擎在(document image文档图像)识别的精确性上相比以前的版本有了一个显著的提高。而这肯定也需要更加强大的计算机计算能力。
神经网络需要多得多的训练数据,并且训练也比原来的Tesseract会慢很多。针对基于Latin的语言,当前已经存在的模型数据被训练过:
about 400000 textlines spanning about 4500 fonts.
而对于其他脚本,并没有这么多的字体可用,但是它们也被训练了大体相同数量的textlines。与以往几分钟到几个小时的训练时长不同,训练Tesseract4.0.0需要花费几天到几个礼拜。即使当前官网已经提供了新的训练好的数据,但也许你会发现这并不能很好的适用于特定的一些情况,因此这里你可能想要自己重新的来训练它。
在训练时有很多不同的选项:
- 微调(Fine tune): 从已经训练好的语言开始,针对一些特定的额外数据进行训练。这种情况通常适用于你当前要解决的问题与已经训练好的数据类似,但是在一些微小的地方稍有不同,比如一个不常用的字体。这个时候可以只训练很小的一部分数据。
- 从神经网络中去掉顶层(或随机若干层),然后使用新的数据来重新训练顶层。在微调(Fine tune)效果不是很好的时候,这通常是下一个最好的选项。在训练一个全新的语言或脚本的时候,假如与原来语言或脚本很相似的话,则去掉顶层之后仍然还可以正常的工作。
- 重新训练。这是一项艰巨的任务,除非你针对特定的问题(环境)拥有一份很具有代表性的、高效的大规模训练集。假如没有的话,你通常并不能训练出一个实际上更好的数据。
虽然上面的一些选项看起来有些不同,但是这个训练步骤几乎相同。
从Tesseract4.0.0开始,老的识别引擎仍然存在,并且也可以被训练。但是它已经属于过时状态,除非后续后更好的素材,否则在将来的发布版本中很有可能会被去掉。
2. 预备工作
要训练Tesseract4.0.0,你不需要有任何神经网络的背景,但是了解神经网络有助于你理解一些训练选项的差异。在你深入研究训练流程之前,建议阅读Implementation introduction 和 ImproveQuality等相关内容。
3. 安装必要库
从Tesseract3.03开始,我们需要一些额外的库来构建训练工具:
这一步,可能会由于库版本原因,我们需要手动安装。具体安装方法我们前面已经介绍过了。
4. 构建训练工具
从Tesseract3.03版本开始,假如你是通过源代码的方式来编译生成Tesseract的话,你需要单独执行命令来编译安装训练工具。一旦上面的这些库已经被安装,在Tesseract的源码目录执行如下命令:
可以执行如下命令来编译ScrollView.java
:
注: 我们上面没有特别执行安装命令make install-jars
来进行安装,可以认为我们的安装目录就是Tesseract源码目录/java
,并且我们通过export命令将该目录导出到SCROLLVIEW_PATH
环境变量中。
5. 所需硬-软件环境
训练Tesseract4.0, 最好(但非必须)是在多核(4核)CPU上,并且拥有OpenMP及Intel Intrinsics以支持SSE/AVX
扩展。基本上只要有足够的内存就可以运行,而CPU性能越高,则运行越快。并不需要(也不支持)GPU。内存的控制可以通过命令行选项--max_image_MB
来指定,但是建议至少需要1GB的内存。
6. 训练文本需求
对于基于Latin的语言,当前已存在的模型已经训练了大概4500种字体,400000个textline。而对于其他的脚本,并没有这么多的字体可用,但是它们也被训练了大体相等数量的textline。
7. 训练流程概况
Tesseract4.0.0的整个训练流程与Tesseract3.04的训练流程,从概念上来说都是相同的:
- 准备训练文本
- 将训练文本变成 image + box文件(如果你已有image文件的话,只需要手动生成box文件)
- 生成unicharset文件(可以部分指定,比如手工创建)
- 用unicharset文件及可选的字典数据创建初始traineddata文件。
- 运行tesseract来处理image + box文件以生成一个数据集合
- 在数据集合上进行训练
- 合并数据文件
主要的不同有:
- box文件只需要是textline级别。这样从image文件生成训练数据会更容易
- .tr文件被替换成了 .lstmf 数据文件
- Fonts可以并且应该自由的混合在一起,而不是分开
- 组合步骤(mftraining,cntraining,shapeclustering)被替换成了一个单独的慢速lsmtraining步骤
Tesseract4.0的训练不能做到像Tesseract3.04那么自动化,主要原因在于:
- 慢速lsmtraining步骤并不能够很好的从中间开始运行,但是在停止之后它可以重新开始训练。并且在训练结束之后很难自动的进行报告
- 有很多选项来指定如何训练神经网络
- 新训练的语言模型、unicharset 与 base Tesseract的语言模型、unicharset可能不一样
- 针对神经网络Tesseract,并不需要一个相同语言的base Tesseract
Creating the training data
流程我们下文会进行介绍,接着是Tutorial guide to lstmtraining
会介绍主要的训练过程。我们都会通过命令行方式进行演示,至少在Linux平台,你只需要拷贝对应的命令行到terminal执行即可。为了是tesstrain.sh
脚本正常工作,你需要将training
及api
目录设置到PATH环境变量中;或者执行make install。
8. Tesseract训练涉及文件
和base Tesseract类似,完整的LSTM模型和其需要的所有数据都被打包在traineddata
文件中。不像是base Tesseract那样,Tesseract4.0在训练时必须提供一个初始traineddata
文件,并且必须事先建立好。该文件包括:
- Config file提供控制参数
Unicharset
定义字符集Unicharcompress
又称为recoder,用于将unicharset映射到具体的编码以供神经网络识别器使用。- 标点符号模式集,用于模式化匹配在一个词前后允许出现的标点符号
- Word集. 系统语言模型的词表
- 数集。 用于模式化匹配Number
上面 红色字体 标明的元素是必须要提供的。 而其他一些元素是可选的,但是假如它们被提供了的话,标点符号模式集也必须要提供。有一个新的工具combine_lang_data
用于构建初始traineddata
,这需要以unicharset
和可选的wordlist作为输入。
在训练过程中,训练器会写checkpoint文件,这是神经网络训练器的一个标配行为。这就允许根据需要中途停止、重启训练。任何的checkpoint都可以通过命令行标签--stop_training
被转换成一个全功能的traineddata
用于识别。
在训练过程中,当获得更好的训练结果的时候训练器也会周期性的写checkpoint文件。
你也可以修改神经网络,然后对其中的部分进行训练;我们也可以通过--continue_from
选项指定一个已存在的checkpoint文件来对特定的训练数据进行微调。
假设我们通过--continue_from
选项从一个checkpoint文件启动训练,并且通过--traineddata
选项改变了unicharset的话,此时我们必须通过--old_traineddata
选项来指定对应的traineddata。这允许训练器在训练过程中进行对应的字符映射。
9. Creating Training Data
与base Tesseract类似,我们可以通过字体自己构建出一些训练数据;也可以从已经存在的图像来构建训练数据。对于任何一种情况,我们都是需要有tiff/box文件,除非是box文件只需要覆盖textline而不是一个个单独的字符。
有两种方式来格式化一个box文件:
Box File Format - First Option
在这种格式下,在box文件中的每一行都匹配tiff 图像中的一个character
。
在一系列line之后必须插入一个特殊的line以标明一个end-of-line
Box File Format - Second Option(NOT YET IMPLEMENTED)
未实现,暂不介绍。
如下的指令都是针对通过字体来构建训练数据,因此你首选必须要安装所需要的字体。
运行tesstrain.sh
脚本的过程与base Tesseract类似。使用--linedata_only
选项来进行LSTM训练。
值得注意的是,拥有更多的训练文本和页面有利于训练结果的准确性,因为神经网络并不能够泛化,需要训练类似于它们将运行的东西。假如目标域(target domain)被严格的限制,则所有需要更多训练数据的严重警告都可能不适用,但是网络规范可能需要修改。
training data
都是通过使用如下的命令来创建的:
上面生成LSTM训练数据的命令与产生base Tesseract训练数据的命令是相同的。要想训练一个通用目的的基于LSTM的OCR引擎,这肯定是不够的,但还是可以作为一个很好的学习例子。
执行如下命令针对Impact
字体产生一份eval data
(当前宿主机上似乎没有Impact
,我们可以DejaVu Serif
代替):
我们在下面讲述tune的时候就会用到该数据。
下面我们我们针对中文,生成tiff/box文件:
执行后生成如下.lstmf
和unicharset
文件:
[root@localhost tesseract]# ls tessdata/ chi_sim_vert.traineddata eng.traineddata eng.user-words Makefile.am ori.traineddata pdf.ttf configs eng.user-patterns Makefile Makefile.in osd.traineddata tessconfigs [root@localhost tesseract]# ls ../tesstutorial/chi_simtrain/ chi_sim chi_sim.LiSu.exp0.lstmf chi_sim.STSong.exp0.lstmf chi_sim.Arial_Unicode_MS_Bold.exp0.lstmf chi_sim.Microsoft_YaHei_Bold.exp0.lstmf chi_sim.STXihei.exp0.lstmf chi_sim.Arial_Unicode_MS.exp0.lstmf chi_sim.Microsoft_YaHei.exp0.lstmf chi_sim.STXinwei.exp0.lstmf chi_sim.AR_PL_UKai_CN.exp0.lstmf chi_sim.Noto_Sans_SC_Bold.exp0.lstmf chi_sim.STZhongsong.exp0.lstmf chi_sim.AR_PL_UKai_HK.exp0.lstmf chi_sim.Noto_Sans_SC.exp0.lstmf chi_sim.training_files.txt chi_sim.AR_PL_UKai_TW.exp0.lstmf chi_sim.Noto_Sans_SC_Heavy.exp0.lstmf chi_sim.WenQuanYi_Micro_Hei.exp0.lstmf chi_sim.AR_PL_UKai_TW_MBE.exp0.lstmf chi_sim.Noto_Sans_SC_Medium.exp0.lstmf chi_sim.WenQuanYi_Micro_Hei_Mono.exp0.lstmf chi_sim.AR_PL_UMing_CN_Semi-Light.exp0.lstmf chi_sim.Noto_Sans_SC_Semi-Light.exp0.lstmf chi_sim.WenQuanYi_Zen_Hei_Medium.exp0.lstmf chi_sim.AR_PL_UMing_HK_Semi-Light.exp0.lstmf chi_sim.NSimSun.exp0.lstmf chi_sim.WenQuanYi_Zen_Hei_Mono_Medium.exp0.lstmf chi_sim.AR_PL_UMing_TW_MBE_Semi-Light.exp0.lstmf chi_sim.SimHei.exp0.lstmf chi_sim.WenQuanYi_Zen_Hei_Sharp_Medium.exp0.lstmf chi_sim.AR_PL_UMing_TW_Semi-Light.exp0.lstmf chi_sim.SimSun.exp0.lstmf chi_sim.YouYuan.exp0.lstmf chi_sim.FangSong.exp0.lstmf chi_sim.STFangsong.exp0.lstmf chi_sim.KaiTi.exp0.lstmf chi_sim.STKaiti.exp0.lstmf [root@localhost tesseract]# ls ../tesstutorial/chi_simtrain/chi_sim chi_sim.charset_size=229.txt chi_sim.traineddata chi_sim.unicharset [root@localhost tesseract]# ls ../tesstutorial/chi_simeval/ chi_sim chi_sim.AR_PL_UKai_CN.exp0.lstmf chi_sim.NSimSun.exp0.lstmf chi_sim.training_files.txt chi_sim.YouYuan.exp0.lstmf chi_sim.Arial_Unicode_MS.exp0.lstmf chi_sim.Microsoft_YaHei.exp0.lstmf chi_sim.SimSun.exp0.lstmf chi_sim.WenQuanYi_Micro_Hei.exp0.lstmf [root@localhost tesseract]# ls ../tesstutorial/chi_simeval/chi_sim chi_sim.charset_size=229.txt chi_sim.traineddata chi_sim.unicharset
10. Tutorial Guide to lstmtraining
10.1 创建初始Traineddata
(注意: 这是一个新步骤)
作为unicharset
和 script_dir
的替代,当前lstmtraining
需要在命令行传入一个traineddata
文件,以获得lstm针对某种语言训练的所有相关信息。traineddata
所需要的文件如下:
1. lstm-unicharset (必须) 2. lstm-recoder (必须) (3个dawg文件,可选) 3. lstm-punc-dawg 4. lstm-word-dawg 5. lstm-number-dawg (1个配置文件,可选) 6. config file
除了上述这些,并不需要其他组件,假如存在的话也会被忽略,并不会被使用。
并没有工具可以直接的来创建lstm-recoder
。然而tesseract4.0有一个新的工具combine_lang_model
,它接受如下文件作为输入:
- input_unicharset
- script_dir(script_dir指向langdata目录)
- word list文件(可选)
以input_unicharset
作为输入,通过combine_lang_model
这个工具可以创建出lstm-recoder和所有的dawgs。假若也提供了wordlist的话,都会将这些打包进traineddata文件中。
下面给出一个示例:
下面针对中文我们生成lstm-recoder:
10.2 LSTMTraining命令行
lstmtraining
是一个用于训练神经网络的多功能工具。下表描述了它的命令行选项:
Flag | type | Default | Explanation |
---|---|---|---|
traineddata | string | none | 初始traineddata文件路径,该路径下包含unicharset、recorder与可选的语言模型 |
net_spec | string | none | 指定神经网络的拓扑结构 |
model_output | string | none | 产生的model/checkpoints文件的存放目录 |
max_image_MB | int | 6000 | 缓存图片所使用的最大内存 |
sequential_training | bool | false | 按sequential training设置为true,默认是采用round-robin来处理训练数据 |
net_mode | int | 192 | 来自于network.h头文件中NetworkFlags枚举所定义的Flag。可选值有:128 for Adam optimization instead of momentum; 64 to allow different layers to have their own learning rates, discovered automatically. |
perfect_sample_delay | int | 0 | When the network gets good, only backprop a perfect sample after this many imperfect samples have been seen since the last perfect sample was allowed through. |
debug_interval | int | 0 | 假若设置为非0值,则每隔指定间隔显示可视化调试信息 |
weight_range | double | 0.1 | 用于初始化权重的随机值区间 |
momentum | double | 0.5 | Momentum for alpha smoothing gradients. |
adam_beta | double | 0.999 | Smoothing factor squared gradients in ADAM algorithm. |
max_iterations | int | 0 | 在达到max_iterations的训练次数后停止停止训练 |
target_error_rate | double | 0.01 | 假如平均错误率高于本值时停止训练 |
continue_from | string | none | 前一个checkpoint的路径,可以通过该checkpoint来继续进行训练或者fine tune |
stop_training | bool | false | 将–continue_from指定的checkpoint转换成一个识别模型 |
convert_to_int | bool | false | With stop_training, convert to 8-bit integer for greater speed, with slightly less accuracy. |
append_index | int | -1 | Cut the head off the network at the given index and append –net_spec network in place of the cut off part. |
train_listfile | string | none | Filename of a file listing training data files. |
eval_listfile | string | none | Filename of a file listing evaluation data files to be used in evaluating the model independently of the training data. |
上述的大部分flag都可以采用默认值,其中一些flag只需要在下面例句的特定操作下才需要。这里我们首先对一些相对复杂的flags进行一个详细的解释。
参看: 梯度下降优化算法概述
1) Unicharset Compression-recoding
LSTMs在顺序性学习的时候很高效,但是在状态数太多的时候就会严重降低速度。根据经验来看,让LSTM学习一个长sequence比学习一个短的sequence更有优势,因此对于一些复杂的脚本(Han,Hangul,Indic脚本),更好的做法是将其中的每一个符号以少量的classes重新编码为一个短sequence,而不是采用大量的classes。 combine_lang_model
命令默认采用了此特性。它会将每一个Han
字符编码为1~5的变长码,Hangul
使用Jamo编码变成长度为3的编码序列,其的脚本则采用它们的Unicode组件序列。为了充分使用本特性,我们应该为combine_lang_model添加--pass_through_recoder
这一flag。
2) Randomized Training Data and sequential_training
3) Model output
训练器周期性的将checkpoints写入到--model_output
所指定的目录。因此可以在任何时刻停止训练,然后我们可以根据这些checkpoints从停止处重启训练。要强制开启一个全新的训练的话,可以使用--model_output
设置一个新的目录,或者将原来目录中的所有文件删除。
4) Net Mode and Optimization
128
flag开启Adam优化,它似乎比plain momentum效果更优。
64
flag启用了自动调整特定层学习速率。
5) Perfect Sample Delay
在训练时,并不需要在一些很”简单”的样本上浪费大量的时间,但是神经网络需要能够处理它们,因此可以允许在训练时丢弃一些太高频的简单样本。--perfect_sample_delay
参数的作用是:如果从上一个perfect sample之后,后面一直都是perfect sample的话,则会丢弃其中的一些perfect sample,直到遇到一些imperfect sample。当前的默认值0表示采用所有样本。在实际使用过程中,本选项貌似效果不明显。假如允许长时间的训练的话,设置为0可以得到最好的效果。
6) Debug Interval and Visual Debugging
--debug_interval
选项默认值为0,trainer每100次循环输出一个progress报告。
--debug_interval
设置为-1,表示trainer每一次循环都输出一个详细的文本调试信息
对于--debug_interval > 0
,trainer会在神经网络层上显示多屏的调试信息。对于--debug_interval 1
这一特例,在进行下一次循环之前会等待LSTMForward窗口上的一次点击。而对于其他值则会按指定的频率打印信息。
注意:
设置–debug_interval > 0的话,必须要编译ScrollView.jar和其他的一些训练工具。请参看Building the Training Tools
调试的文本信息包括:truth text, the recognized text, the iteration number, the training sample id (file and page) and the mean value of several error metrics.
可视化调试信息包括:
每一个神经网络层的前、后向窗口。对于大部分信息可能都是无意义的垃圾数据,但是Output/Output-back
和ConvNL
窗口还是值得查看。
11. Training From Scratch
如下的例子展示了”training from scratch”命令行的使用方法。用上述命令行尝试的默认训练数据来执行下面的命令:
这里我们针对中文:
注意这里如果远程执行,可能会出现如下错误:
No X11 DISPLAY variable was set, but this program performed an operation which requires it.
此时我们需要设置DISPLAY
环境变量:
在另一个单独的窗口,我们可以使用如下命令来观察日志文件:
(假如你以前看过本学习手册,你也许会注意到其中的一些数字已经发生了改变。这是由于产生的神经网络略小的缘故,并且由于增加了ADAM优化器,使得有一个更高的学习效率)。
在训练到600遍的时候,空白会开始显示在CTC Output
窗口,并且在1300遍的时候图像中会出现空格,然后在LSTMForward窗口
开始出现绿色的行。
值得注意的是,我们上面训练的engine所训练的数据量与原来遗留的Tesseract engine所训练的数据量是一样的,但是对于其他字体的精确性也许会更差。我们可以通过如下的命令运行针对Impact Condensed
字体进行一个独立的测试:
结果很可能为85%的字符错误率。
12. Fine Tuning for Impact
Fine Tuning是用已经存在的模型针对新的数据进行训练的过程,这一过程并不会改变神经网络的任何部分,尽管你可以添加字符到字符集中(请参看:Fine Tuning for ± a few characters)
注意:--continue_from
可以指定为一个checkpoint,或者是一个recognition model,即使它们的文件格式是不同的。checkpoint文件在--model_output
目录下以checkpoint
结束的文件。而一个recognition model
则可以从一个已存在的traineddata文件中使用combine_tessdata解压得到。值得注意的是也需要提供原始的训练文件,因为它包含有unicharset和recoder. 下面是针对我们前面训练好的模型,对于Impact
字体的一个Fine Tuning训练:
训练到100遍的时候,character/word的错误率为22.36%/50%,而当训练到1200遍的时候错误率则下降到0.3%/1.2%。现在我们可以进行一个测试:
这似乎显示了一个更好的结果,character/word的错误率为0.0086%/0.057%,这是因为训练平均已经超过了1000遍,并且训练器已经进行了提高。但是这并不代表整个Impace
字体,因为只是测试了训练数据。
如下有一个小的例子,Fine Tuning的目的就是使用在一个已存在的fully-trained模型上面:
训练到100遍的时候,它有一个1.35%/4.56% char/word的错误率,而当训练到400遍的时候会下降到0.533%/1.633%的错误率。我们通过如下的命令进行测试:
再一次我们获得了一个较好的结果:char的错误率为0.017%,word的错误率为0.120%。而更有意思的是经过上面的训练之后,其对其他字体的影响。下面我们在base training
上来测试一个例子:
这时我们发现char的错误率为0.25548592,word的错误率为0.82523491.
这看起来效果更差了,尽管针对eval训练集可以达到一个接近为0的错误率并且只训练了400遍。注意:
如果训练遍数超过400次的话,则针对base training会有一个更高的错误率。
总结:预先训练好的模型可以针对一个小的数据集被重新fine-tuned或者adapted,而对原来的通用的精确性不会造成太大的损坏。Fine-tuning是很重要的,但是应该避免针对某一小的数据集进行过度训练,否则可能会降低对整体数据集的识别率。
13. Fine Tuning for ± a few characters
New Feature.
我们可以添加一些新的字符到字符集中,然后使用fine tuning来训练它们,而不需要对一个大规模的数据进行训练。
训练需要有新的unicharset/recoder,language models(可选),和原来的含有unicharset/recoder的traineddata文件。
下面我们尝试添加plus-minus符号(±)
到已经存在的英文模型当中。修改langdata/eng/eng.training_text
文件让其包含一些±
符号。我这里插入了14个,如下所示:
# grep ± ../langdata/eng/eng.training_text alkoxy of LEAVES ±1.84% by Buying curved RESISTANCE MARKED Your (Vol. SPANIEL TRAVELED ±85¢ , reliable Events THOUSANDS TRADITIONS. ANTI-US Bedroom Leadership Inc. with DESIGNS self; ball changed. MANHATTAN Harvey's ±1.31 POPSET Os—C(11) VOLVO abdomen, ±65°C, AEROMEXICO SUMMONER = (1961) About WASHING Missouri PATENTSCOPE® # © HOME SECOND HAI Business most COLETTI, ±14¢ Flujo Gilbert Dresdner Yesterday's Dilated SYSTEMS Your FOUR ±90° Gogol PARTIALLY BOARDS firm Email ACTUAL QUEENSLAND Carl's Unruly ±8.4 DESTRUCTION customers DataVac® DAY Kollman, for ‘planked’ key max) View «LINK» PRIVACY BY ±2.96% Ask! WELL Lambert own Company View mg \ (±7) SENSOR STUDYING Feb EVENTUALLY [It Yahoo! Tv United by #DEFINE Rebel PERFORMED ±500Gb Oliver Forums Many | ©2003-2008 Used OF Avoidance Moosejaw pm* ±18 note: PROBE Jailbroken RAISE Fountains Write Goods (±6) Oberflachen source.” CULTURED CUTTING Home 06-13-2008, § ±44.01189673355 € netting Bookmark of WE MORE) STRENGTH IDENTICAL ±2? activity PROPERTY MAINTAINED
注:±可以通过alt+0177输入
现在使用下面的命令产生新的training
和eval
数据:
在新的训练数据上运行fine tuning。这需要更多的训练遍数,因为针对新的目标字符其拥有更少的样本数:
在训练到100遍的时候,char/word错误率为1.26%/3.98%, 当训练到3600遍的时候char/word的错误率下降到0.041%/0.185%。再一次我们会发现,单独针对eval数据的测试会获得一个更好的结果:
结果char/word错误率为0.0326%/0.128%(明显低于平均的0.041%/0.185%)。而更为有趣的是,针对Impact Condensed
字体看其能否识别新添加的字符±
,因此我们执行如下命令:
你会发现Char error rate=2.3767074, Word error rate=8.3829474
.
这和原来针对原始模型的测试形成了很好的对比。另外,假若你检查相应的错误信息:
你会看到它正确的找出了所有±
符号!(对于原来训练文件中包含±
的行在对应的OCR行上也包含±
,并不存在在原来训练文件中包含±
的行而没有与之对应的OCR行的情况出现)。
这是一个令人振奋的消息,这意味着在不影响精确性的情况下可以添加1个
或多个
新的字符,并且新添加的字符也可以泛化到其他字体上,在其他字体上同样可以被识别。
Note: 当进行fine tuning的时候,很重要的一点是要尝试不同的训练遍数,因为针对一个小的字符集进行过度的训练会导致over-fitting。
14. Training Just a Few Layers
假若你只需要添加一种新的字体类型或者添加一些新的字符的话,进行Fine Tuning训练就可以了。但是假如你想训练一种新创建的语言呢? 这种情况下你没有足够的训练数据,这时应该怎么办呢? 你可以尝试移除一个已存在的神经网络模型的一些top layers,然后用一些新的randomized layers来替换它们,然后再集合你的训练数据来进行训练。这里的操作命令大体与Training from scratch
类似,但是另外你需要提供一个模型用于--continue_from
与--append_index
。
选项--append_index
用于指定移除给定index以上的所有层(从0层开始,第0层属于最外层),然后通过给定的--net_spec
选项指定需要保留哪些层。尽管当前的indexing system并不是一个很完美的方法来引用网络层,但是确实足够简洁。构建器(builder)会输出其产生的对应的网络层信息,这使得可以很容易的找出一个索引所对应的是哪一个层。
Tesseract4.0 alpha版本的一个新特性就是combine_tessdata
命令可以列出一个训练好的模型文件的内容及其版本信息。在大部分情况下,版本信息字符串还包括其在训练时所用的net_spec
。
针对chi_sim:
值得注意的是,整个层的数量是相同的,只是大小会有些不一样。因此,在这些模型中,将会保留--append_index
所关联的上一层,然后再追加新的层:
Index | Layer |
---|---|
0 | Input |
1 | Ct3,3,16 |
2 | Mp3,3 |
3 | Lfys48/64 |
4 | Lfx96 |
5 | Lrx96 |
6 | Lfx192/512 |
针对已存在模型遗留部分的权重在初始化时是不会改变的,但是通过新的训练数据这些权重允许被修改。
如下我们给出一个例子: 将已存在的chi_sim模型转换成一个eng模型。我们将会移除最后一个LSTM层(该层对于chi_sim模型来说会大于需要训练的eng模型)和softmax,然后用一个更小的LSTM layer和一个新的softmax来替换它:
因为lower layers已经被训练过了,因此当前的学习速率会比training from scratch
更快。在训练到600遍的时候,它突然开始会产生输出;在训练到800遍的时候,它已经可以正确的识别大部分的字符;在训练到3000次的时候就会停止训练
15. Error Messages From Training
当在进行训练的过程中会出现很多错误消息,其中有一些错误消息很重要,而另外一些则相对没有那么重要。
当用于训练一幅图像的字符串并不能用给定的unicharset编码时就会出现Encoding of string failed!
错误,可能的原因有:
- 在文本中有一个不能显示的字符
- 一个零散的不可打印字符(例如tab或者ctrl字符)
- There is an un-represented Indic grapheme/aksara in the text.
在任何一种情况这都会导致这符训练的图像会被训练器所忽略。假如这种错误并不频繁,则并不会产生太大的影响, 但这也许意味着你所指定的unicharset并不能很好的表示你当前所训练的语言。
Unichar xxx is too long to encode!!!
(似乎只在印度语)。 针对unicode字符有一个最大的长度限制,recoder会使用到该长度,这可以简化用于LSTM引擎的unicharset。通常这种情况下训练会继续进行并在可识别字符集中忽略Aksara,但是假如有很多这样的错误信息,这可能就真的有麻烦了。
Bad box coordinates in boxfile string!
,对于一个完整的文本行来说,LSTM训练器只需要box的边框信息,但是假如你在box string 中加入了空格的话,比如:
分析器此时可能就会不能理解,然后给你提示上面的错误信息。此时有另外一种不同的格式用于这种boxfile strings:
当一个训练输入并不符合LSTM格式的时候或者文件不可读时就会出现Deserialize header failed
错误消息提示。此时应该检查文件列表文件看其是否有合法的文件名。
当layout分析并不能够正确的分片用作训练数据的图像时就会提示No block overlapping textline:
错误消息,然后该textline就会被丢掉。假如这种情况发生不太频繁的话,则不会产生太大的问题,但是假如出现很多这样的错误消息提示的话,则可能训练文本或显示程序有问题。
在训练的早期,ALIGNED_TRUTH
或者OCR TEXT
输出中会出现<Undecodable>
的错误消息提示。这是unicharset压缩和CTC训练的结果(请参看上面的 Unicharset Compression 和 train_mode)。这一般不会产生什么影响,可以忽略。并且随着训练的持续进行出现的频率也会越来越低。
16. Combining the Output Files
lstmtraining
程序会输出两种类型的checkpoint文件:
<model_base>_checkpoint
: 是最新的模型文件<model_base><char_error>_<iteration>.checkpoint
: 是在训练过程中当获得最好的训练错误率的时候写的模型文件。它是在训练时产生的类似于checkpoint的dump文件,但是其大小相对较小,因为其并不包含一个副本模型。
可以通过如下的命令将这些文件转换成一个标准的traineddata文件:
针对中文:
这会从training dump中提取出识别模型,然后将其插入到--traineddata
参数所指定的文件中,也包括unicharset、recoder、和在训练时所用到的任何dawgs文件。
值得注意的是,Tesseract4.0的traineddata文件中只需要包含lang.lstm,lang.lstm-unicharset和lang.lstm-recoder就可以正常运行。而对于lstm-*-dawgs
则是可选的。
如果要对上面的训练结果在进行训练,可以采用如下方法: