All Projects → xingximing-xxm → chatbot

xingximing-xxm / chatbot

Licence: Apache-2.0 license
一个基于深度学习的中文聊天机器人,这里有详细的教程与代码,每份代码都有详细的注释,作为学习是美好的选择。A Chinese chatbot based on deep learning.

Programming Languages

python
139335 projects - #7 most used programming language
java
68154 projects - #9 most used programming language
Batchfile
5799 projects

Projects that are alternatives of or similar to chatbot

Encoder decoder
Four styles of encoder decoder model by Python, Theano, Keras and Seq2Seq
Stars: ✭ 269 (+186.17%)
Mutual labels:  seq2seq, attention
Neural sp
End-to-end ASR/LM implementation with PyTorch
Stars: ✭ 408 (+334.04%)
Mutual labels:  seq2seq, attention
Seq2seq Summarizer
Pointer-generator reinforced seq2seq summarization in PyTorch
Stars: ✭ 306 (+225.53%)
Mutual labels:  seq2seq, attention
transformer
A PyTorch Implementation of "Attention Is All You Need"
Stars: ✭ 28 (-70.21%)
Mutual labels:  seq2seq, attention
Deep Time Series Prediction
Seq2Seq, Bert, Transformer, WaveNet for time series prediction.
Stars: ✭ 183 (+94.68%)
Mutual labels:  seq2seq, attention
Base-On-Relation-Method-Extract-News-DA-RNN-Model-For-Stock-Prediction--Pytorch
基於關聯式新聞提取方法之雙階段注意力機制模型用於股票預測
Stars: ✭ 33 (-64.89%)
Mutual labels:  seq2seq, attention
Nlp Tutorials
Simple implementations of NLP models. Tutorials are written in Chinese on my website https://mofanpy.com
Stars: ✭ 394 (+319.15%)
Mutual labels:  seq2seq, attention
RNNSearch
An implementation of attention-based neural machine translation using Pytorch
Stars: ✭ 43 (-54.26%)
Mutual labels:  seq2seq, attention
Chinese Chatbot
中文聊天机器人,基于10万组对白训练而成,采用注意力机制,对一般问题都会生成一个有意义的答复。已上传模型,可直接运行,跑不起来直播吃键盘。
Stars: ✭ 124 (+31.91%)
Mutual labels:  seq2seq, attention
Multiturndialogzoo
Multi-turn dialogue baselines written in PyTorch
Stars: ✭ 106 (+12.77%)
Mutual labels:  seq2seq, attention
classifier multi label seq2seq attention
multi-label,classifier,text classification,多标签文本分类,文本分类,BERT,ALBERT,multi-label-classification,seq2seq,attention,beam search
Stars: ✭ 26 (-72.34%)
Mutual labels:  seq2seq, attention
chinese ancient poetry
seq2seq attention tensorflow textrank context
Stars: ✭ 30 (-68.09%)
Mutual labels:  seq2seq, attention
Text Classification Models Pytorch
Implementation of State-of-the-art Text Classification Models in Pytorch
Stars: ✭ 379 (+303.19%)
Mutual labels:  seq2seq, attention
Pointer Networks Experiments
Sorting numbers with pointer networks
Stars: ✭ 53 (-43.62%)
Mutual labels:  seq2seq, attention
Pytorch Seq2seq
Tutorials on implementing a few sequence-to-sequence (seq2seq) models with PyTorch and TorchText.
Stars: ✭ 3,418 (+3536.17%)
Mutual labels:  seq2seq, attention
tensorflow-chatbot-chinese
網頁聊天機器人 | tensorflow implementation of seq2seq model with bahdanau attention and Word2Vec pretrained embedding
Stars: ✭ 50 (-46.81%)
Mutual labels:  seq2seq, attention
RecycleNet
Attentional Learning of Trash Classification
Stars: ✭ 23 (-75.53%)
Mutual labels:  attention
tensorflow-ml-nlp-tf2
텐서플로2와 머신러닝으로 시작하는 자연어처리 (로지스틱회귀부터 BERT와 GPT3까지) 실습자료
Stars: ✭ 245 (+160.64%)
Mutual labels:  seq2seq
skt
Sanskrit compound segmentation using seq2seq model
Stars: ✭ 21 (-77.66%)
Mutual labels:  seq2seq
Recurrent-Independent-Mechanisms
Implementation of the paper Recurrent Independent Mechanisms (https://arxiv.org/pdf/1909.10893.pdf)
Stars: ✭ 90 (-4.26%)
Mutual labels:  attention

chatbot

Pyhton 3 GitHub welcome

快速开始 - Getting Started内容 - Table of Contents关于 - About鸣谢 - Acknowledgment问题 - FAQ

Made by ximing Xing • 🌌 https://ximingxing.github.io/

智能聊天机器人作为自然语言处理的一个重要分支,是目前最火热也最具挑战的研究方向,它对于促进人机交互方式的发展有着重要的意义。 本项目基于Encoder-decoder模型,以及在此基础上完成的聊天机器人系统。 最后,给出了参考的开源代码以及可使用的数据以供读者使用 本项目可用作学习使用或毕业设计,相关问题可与我联系。

Open Source runs on love, laughter and a whole lot of coffee. Consider buying me one if you find this content useful ☕️😉.

📋 快速开始 - Getting Started

  1. 执行cd chatbot -- cd to the directory where requirements.txt is located
  2. 开启你的虚拟环境(conda env) -- activate your virtualenv
  3. 在激活后的conda环境中执行pip install -r requirements.txt -- run: pip install -r requirements.txt in your shell

至此,你已经安装了本项目所需要的全部环境

  1. 执行cd src/chatbot_quick_start

在训练模型前一定要先下载数据,可在CONFIG.py中的"path": "data/xiaohuangji50w_fenciA.conv"处指定路径

  1. 执行python Train.py, 模型训练

    模型超参数保存在CONFIG.py

  2. 模型训练结束后,运行RestfulAPI.py启动web服务

  3. 访问localhost:8000/api/chatbot?infos=你好 即可看到回复

内容 - Table of Contents

▴ Back to top

如果你想了解快速开始中的详细内容,可以阅读这个环节

  1. extract_conv.pyornew_extract_conv.py 解压并预处理语料文件

    • raw_data/ : 用于存放原始语料(.conv格式)

    • data/ : 预处理后的语料 (.pickle格式)

  2. params.json 模型超参数

  3. word_sequence.py 对文本分词并编码

  4. seq_to_seq.py attentive Encoder-Decoder with LSTM

  5. train.pyoranti_train.py 训练模型

    • model/ : 存放训练好的模型
  6. test.py 测试模型

  7. web.py 提供restful接口的api

对于传统机器学习方法,本项目也给出了一个基于chatterbot的示例

  • 位于src/serach_bot/bot.py

    如果读者感兴趣可以在这里看到更多信息

完整的项目 -- 安卓智能聊天机器人

ChatInterface\ 目录下是关于安卓界面的源文件,使用Android studio打开并编译此目录即可得到App文件, 这里我是用NOX(夜神模拟器)虚拟安卓系统,并基于NOX进行APP测试,NOX Debug脚本位于ChatInterface/nox.bat (对应windows系)

关于 - About

  • 数据 -- 使用互联网公开的数据集:

    • 中文电影对话 dgk_shooter_min.conv

    • 小黄鸡语料 xiaohuangji50w_fenciA.conv

你可以在这里找到数据

  • NLP相关

    • Word embedding 词嵌入

    词嵌入(Word embedding)又被称为词表示(Word representation),每个单词套用该模型后可以转换为一个实数,且每个实数对应词典中的一个特定单词。 它是一种用于在低维的词向量空间中用来学习深层的单词表示的技术,通过对词汇量的扩大,可以很大地提升训练速度,因为会通过在词嵌入空间中非常相近的单词来共享一些信息。 常用的词嵌入模型有 Word2Vec,该模型是由包含了由一千多亿单词组成的 Google 新闻数据训练的,并且被证明该模型在一个非常广泛的数据集上展现出了强有力的信息。

    • Encoder-decoder 加解密模型

    Encoder-Decoder

    在以往的研究中,我们会发现实际上智能对话系统问题可以被很好地应用到的自然语言的机器翻译框架中,我们可以将用户提出的问题作文输入机器翻译模型的源序列, 系统返回的答案则可以作为翻译模型的目标序列。因此,机器翻译领域相对成熟的技术与问答系统所需要的框架模型有了很好的可比性,Ritter 等人借鉴了统计机器翻译的手段, 使用 Twitter 上的未被结构化的对话数据集,提出了一个问答生成模型的框架。 Encoder-decoder 框架目前发展较为成熟,在文本处理领域已经成为一种研究模式,可应用场景十分广泛。 它除了在已有的文本摘要提取、机器翻译、词句法分析方面有很大的贡献之外,在本课题中,也可以被应用到人机对话和智能问答领域。

    • Attention 注意力机制

    Attention

    Attention 结构的核心优点就是通过在模型“decoder”阶段对相关的源内容给予“关注”,从而可以在目标句子和源句子之间建立直接又简短的连接,解决机器人模型和用户之间的信息断层问题。 注意力机制如今作为一种事实标准,已经被有效地应用到很多其他的领域中,比如图片捕获生成,语音识别以及文字摘要等。 在传统 seq2seq 模型的解码过程中,“encoder”加密器的源序列的最后状态会被作为输入,直接传递到“decoder”解码器。 直接传递固定且单一维度的隐藏状态到解码器的方法,对于简短句或中句会有较为可观的效果,却会成为较长的序列的信息瓶颈。 然而,不像在 RNN 模型中将计算出来的隐藏层状态全部丢弃,注意力机制为我们提供了一种方法,可以使解码器对于源序列中的信息选择重点后进行动态记忆。 也就是说,通过注意力机制,长句子的翻译质量也可以得到大幅度的提升。

Acknowledgment

▴ Back to top

感谢这些Paper给了我启示:

Search for a specific pattern. Can't find one? Please report a new pattern here.

💬 FAQ

▴ Back to top

Q: 项目涉及的第三方库有哪些?

A: 软件表

Software Version
absl-py 0.7.1
astor 0.7.1
bleach 1.5.0
gast 0.2.2
grpcio 1.20.0
html5lib 0.9999999
Markdown 3.1
numpy 1.16.2
protobuf 3.7.1
six 1.12.0
tensorboard 1.6.0
tensorflow-gpu 1.6.0
termcolor 1.1.0
tornado 6.0.2
tqdm 4.31.1
Werkzeug 0.15.2
Note that the project description data, including the texts, logos, images, and/or trademarks, for each open source project belongs to its rightful owner. If you wish to add or remove any projects, please contact us at [email protected].