All Projects → fastnlp → Fasthan

fastnlp / Fasthan

Licence: apache-2.0
fastHan是基于fastNLP与pytorch实现的中文自然语言处理工具,像spacy一样调用方便。

Programming Languages

python
139335 projects - #7 most used programming language

Projects that are alternatives of or similar to Fasthan

Min nlp practice
Chinese & English Cws Pos Ner Entity Recognition implement using CNN bi-directional lstm and crf model with char embedding.基于字向量的CNN池化双向BiLSTM与CRF模型的网络,可能一体化的完成中文和英文分词,词性标注,实体识别。主要包括原始文本数据,数据转换,训练脚本,预训练模型,可用于序列标注研究.注意:唯一需要实现的逻辑是将用户数据转化为序列模型。分词准确率约为93%,词性标注准确率约为90%,实体标注(在本样本上)约为85%。
Stars: ✭ 107 (-76.17%)
Mutual labels:  pos, ner
Dan Jurafsky Chris Manning Nlp
My solution to the Natural Language Processing course made by Dan Jurafsky, Chris Manning in Winter 2012.
Stars: ✭ 124 (-72.38%)
Mutual labels:  parser, ner
Monpa
MONPA 罔拍是一個提供正體中文斷詞、詞性標註以及命名實體辨識的多任務模型
Stars: ✭ 203 (-54.79%)
Mutual labels:  pos, ner
Deta parser
快速中文分词分析word segmentation
Stars: ✭ 476 (+6.01%)
Mutual labels:  pos, parser
Nlp Papers
Papers and Book to look at when starting NLP 📚
Stars: ✭ 111 (-75.28%)
Mutual labels:  pos, ner
Jiagu
Jiagu深度学习自然语言处理工具 知识图谱关系抽取 中文分词 词性标注 命名实体识别 情感分析 新词发现 关键词 文本摘要 文本聚类
Stars: ✭ 2,368 (+427.39%)
Mutual labels:  pos, ner
Nlp Tools
😋本项目旨在通过Tensorflow基于BiLSTM+CRF实现中文分词、词性标注、命名实体识别(NER)。
Stars: ✭ 225 (-49.89%)
Mutual labels:  pos, ner
Astexplorer
A web tool to explore the ASTs generated by various parsers.
Stars: ✭ 4,330 (+864.37%)
Mutual labels:  parser
Javalang
Pure Python Java parser and tools
Stars: ✭ 408 (-9.13%)
Mutual labels:  parser
Stream Parser
⚡ PHP7 / Laravel Multi-format Streaming Parser
Stars: ✭ 391 (-12.92%)
Mutual labels:  parser
Swaggen
OpenAPI/Swagger 3.0 Parser and Swift code generator
Stars: ✭ 385 (-14.25%)
Mutual labels:  parser
Mri
Quickly scan for CLI flags and arguments
Stars: ✭ 394 (-12.25%)
Mutual labels:  parser
Dev Blog
翻译、开发心得或学习笔记
Stars: ✭ 3,929 (+775.06%)
Mutual labels:  parser
Toml11
TOML for Modern C++
Stars: ✭ 390 (-13.14%)
Mutual labels:  parser
Tiny Compiler
A tiny compiler for a language featuring LL(2) with Lexer, Parser, ASM-like codegen and VM. Complex enough to give you a flavour of how the "real" thing works whilst not being a mere toy example
Stars: ✭ 425 (-5.35%)
Mutual labels:  parser
Verible
Verible is a suite of SystemVerilog developer tools, including a parser, style-linter, and formatter.
Stars: ✭ 384 (-14.48%)
Mutual labels:  parser
Anystyle
Fast and smart citation reference parsing
Stars: ✭ 438 (-2.45%)
Mutual labels:  parser
Seafox
A blazing fast 100% spec compliant, self-hosted javascript parser written in Typescript
Stars: ✭ 425 (-5.35%)
Mutual labels:  parser
Jsonparser
One of the fastest alternative JSON parser for Go that does not require schema
Stars: ✭ 4,323 (+862.81%)
Mutual labels:  parser
Tomlplusplus
Header-only TOML config file parser and serializer for C++17 (and later!).
Stars: ✭ 403 (-10.24%)
Mutual labels:  parser

fastHan

简介

fastHan是基于fastNLP与pytorch实现的中文自然语言处理工具,像spacy一样调用方便。

其内核为基于BERT的联合模型,其在13个语料库中进行训练,可处理中文分词、词性标注、依存分析、命名实体识别四项任务。fastHan共有base与large两个版本,分别利用BERT的前四层与前八层。base版本在总参数量150MB的情况下各项任务均有不错表现,large版本则接近甚至超越SOTA模型。

安装指南

fastHan需要以下依赖的包:

torch>=1.0.0

fastNLP>=0.5.0

版本更新:

  • 1.1版本的fastHan与0.5.5版本的fastNLP会导致importerror。如果使用1.1版本的fastHan,请使用0.5.0版本的fastNLP。
  • 1.2版本的fastHan修复了fastNLP版本兼容问题。小于等于1.2版本的fastHan在输入句子的首尾包含空格、换行符时会产生BUG。如果字符串首尾包含上述字符,请使用 strip 函数处理输入字符串。
  • 1.3版本的fastHan自动对输入字符串做 strip 函数处理。
  • 1.4版本的fastHan加入用户词典功能(仅限于分词任务)
  • 1.5版本的fastHan
    • 修正了Parsing任务中可能会出现的ValueError
    • 修改结果的返回形式,默认以list的形式返回
    • 可以通过url路径加载模型

可执行如下命令完成安装:

pip install fastHan==1.5

使用教程

fastHan的使用极为简单,只需两步:加载模型、将句子输入模型。

加载模型

执行以下代码可以加载模型:

from fastHan import FastHan
model=FastHan()

此时若用户为首次初始化模型,将自动从服务器中下载参数。

模型默认初始化为base,如果使用large版本,可在初始化时加入如下参数:

model=FastHan(model_type="large")

此外,对于手动下载模型的用户,可以使用模型路径加载模型。下载压缩包并解压后,可将对应路径通过url参数传入。一则使用模型路径加载模型的例子如下:

model=FastHan(url="C:/Users/gzc/.fastNLP/fasthan/fasthan_base")

输入句子

模型对句子进行依存分析、命名实体识别的简单例子如下:

sentence="郭靖是金庸笔下的一名男主。"
answer=model(sentence,target="Parsing")
print(answer)
answer=model(sentence,target="NER")
print(answer)

模型将会输出如下信息:

[[['郭靖', 2, 'top', 'NR'], ['是', 0, 'root', 'VC'], ['金庸', 4, 'nn', 'NR'], ['笔', 5, 'lobj', 'NN'], ['下', 10, 'assmod', 'LC'], ['的', 5, 'assm', 'DEG'], ['一', 8, 'nummod', 'CD'], ['名', 10, 'clf', 'M'], ['男', 10, 'amod', 'JJ'], ['主', 2, 'attr', 'NN'], ['。', 2, 'punct', 'PU']]]
[[['郭靖', 'NR'], ['金庸', 'NR']]]

任务选择

target参数可在'Parsing'、'CWS'、'POS'、'NER'四个选项中取值,模型将分别进行依存分析、分词、词性标注、命名实体识别任务,模型默认进行CWS任务。其中词性标注任务包含了分词的信息,而依存分析任务又包含了词性标注任务的信息。命名实体识别任务相较其他任务独立。

如果分别运行CWS、POS、Parsing任务,模型输出的分词结果等可能存在冲突。如果想获得不冲突的各类信息,请直接运行包含全部所需信息的那项任务。

模型的POS、Parsing任务均使用CTB标签集。NER使用msra标签集。

分词风格

分词风格,指的是训练模型中文分词模块的10个语料库,模型可以区分这10个语料库,设置分词style为S即令模型认为现在正在处理S语料库的分词。所以分词style实际上是与语料库的覆盖面、分词粒度相关的。如本模型默认的CTB语料库分词粒度较细。如果想切换不同的粒度,可以使用模型的 set_cws_style 函数,例子如下:

sentence="一个苹果。"
print(model(sentence,'CWS'))
model.set_cws_style('cnc')
print(model(sentence,'CWS'))

模型将输出如下内容:

[['一', '个', '苹果', '。']]
[['一个', '苹果', '。']]

对语料库的选取参考了下方CWS SOTA模型的论文,共包括:SIGHAN 2005的 MSR、PKU、AS、CITYU 语料库,由山西大学发布的 SXU 语料库,由斯坦福的CoreNLP 发布的 CTB6 语料库,由国家语委公布的 CNC 语料库,由王威廉先生公开的微博树库 WTB,由张梅山先生公开的诛仙语料库 ZX,Universal Dependencies 项目的 UD 语料库。

输入与输出

输入模型的可以是单独的字符串,也可是由字符串组成的列表。如果输入的是列表,模型将一次性处理所有输入的字符串,所以请自行控制 batch size。

模型的输出可以是python的list,也可以是fastHan中自定义的Sentence与Token类。模型默认返回list。

如果将"return_list"参数设为False,模型的输出是在fastHan模块中定义的sentence与token类。模型将输出一个由sentence组成的列表,而每个sentence又由token组成。每个token本身代表一个被分好的词,有pos、head、head_label、ner四项属性,代表了该词的词性、依存关系、命名实体识别信息。

一则输入输出的例子如下所示:

sentence=["我爱踢足球。","林丹是冠军"]
answer=model(sentence,'Parsing',return_list=False)
for i,sentence in enumerate(answer):
    print(i)
    for token in sentence:
        print(token,token.pos,token.head,token.head_label)

上述代码将输出如下内容:

0
我 PN 2 nsubj
爱 VV 0 root
踢 VV 2 ccomp
足球 NN 3 dobj
。 PU 2 punct
1
林丹 NR 2 top
是 VC 0 root
冠军 NN 2 attr
! PU 2 punct

可在分词风格中选择'as'、'cityu'进行繁体字分词,这两项为繁体语料库。

此外,由于各项任务共享词表、词嵌入,即使不切换模型的分词风格,模型对繁体字、英文字母、数字均具有一定识别能力。

切换设备

可使用模型的 set_device 函数,令模型在cuda上运行或切换回cpu,示例如下:

model.set_device('cuda:0')
model.set_device('cpu')

词典分词

用户可以使用模型的 add_user_dict 函数添加自定义词典,该词典会影响模型在分词任务中的权重分配。进行分词任务时,首先利用词典进行正向、反向最大匹配法进行分词,并将词典方法的分词结果乘上权重系数融入到深度学习模型的结果中。该函数的参数可以是由词组成的list,也可以是文件路径(文件中的内容是由'\n'分隔开的词)。

用户可使用 set_user_dict_weight 函数设置权重系数(若不设置,默认为0.05)。我们在大规模的训练语料库中发现0.05-0.1即可取得较好的结果。条件允许的情况下,用户也可以自行设置验证集、测试集,找到最适合自己任务的权重系数。

添加完用户词典后,需要在调用模型时令 use_dict 参数为True。再次申明,词典功能目前仅在'CWS'任务中有效。

用户可调用 remove_user_dict 移除之前添加的用户词典。

使用用户词典影响分词的一则例子如下:

sentence="奥利奥利奥"
print(model(sentence))
model.add_user_dict(["奥利","奥利奥"])
model.set_user_dict_weight(0.05)
print(model(sentence,use_dict=True))

输出为:

[['奥利奥利奥']]
[['奥利', '奥利奥']]

模型表现

准确率测试

模型在以下数据集进行训练和准确性测试:

  • CWS:AS, CITYU, CNC, CTB, MSR, PKU, SXU, UDC, WTB, ZX
  • NER:MSRA、OntoNotes
  • POS & Parsing:CTB9

注:模型在训练NER OntoNotes时将其标签集转换为与MSRA一致。

模型在ctb分词语料库的前800句进行了速度测试,平均每句有45.2个字符。测试环境为私人电脑, Intel Core i5-9400f + NVIDIA GeForce GTX 1660ti,batch size取8。经测试依存分析运行速度较慢,其他各项任务运行速度大致相同。base模型上依存分析任务使用GPU效果不佳,是因为依存分析利用POS的结果需要大量CPU计算,GPU带来的加速效果小于信息传递的负担。

最终模型取得的表现如下:

任务 CWS Parsing POS NER MSRA NER OntoNotes 速度(句/s),cpu 速度(句/s),gpu
SOTA模型 97.1 85.66,81.71 93.15 95.25 79.92 —— ——
base模型 97.27 81.22,76.71 94.88 94.33 82.86 25-55 22-111
large模型 97.41 85.52,81.38 95.66 95.50 83.82 14-28 21-97

注:模型在句首加入语料库标签来区分输入句子的任务及语料库,最初测试计算F值时将语料库标签也算入在内,导致CWS、POS分值偏高。现在已修复此处错误并更新了表格中的CWS及POS项。评分略有下降(CWS平均下降0.11,POS平均下降0.29),但仍超越SOTA模型。

表格中单位为百分数。CWS的成绩是10项任务的平均成绩。Parsing中的两个成绩分别代表Fudep和Fldep。SOTA模型的数据来自笔者对网上资料及论文的查阅,如有缺漏请指正,不胜感激。这五项SOTA表现分别来自如下五篇论文:

  1. Huang W, Cheng X, Chen K, et al. Toward Fast and Accurate Neural Chinese Word Segmentation with Multi-Criteria Learning.[J]. arXiv: Computation and Language, 2019.
  2. Hang Yan, Xipeng Qiu, and Xuanjing Huang. "A Graph-based Model for Joint Chinese Word Segmentation and Dependency Parsing." Transactions of the Association for Computational Linguistics 8 (2020): 78-92.
  3. Meng Y, Wu W, Wang F, et al. Glyce: Glyph-vectors for Chinese Character Representations[J]. arXiv: Computation and Language, 2019.
  4. Diao S, Bai J, Song Y, et al. ZEN: Pre-training Chinese Text Encoder Enhanced by N-gram Representations[J]. arXiv: Computation and Language, 2019.
  5. Jie Z, Lu W. Dependency-Guided LSTM-CRF for Named Entity Recognition[C]. international joint conference on natural language processing, 2019: 3860-3870.

关于更多模型结构和训练的内容,可以查看此篇论文

Note that the project description data, including the texts, logos, images, and/or trademarks, for each open source project belongs to its rightful owner. If you wish to add or remove any projects, please contact us at [email protected].