我们已经为您准备好复现该模型所需的环境,您可以创建实例、一键复用哦!

模型的使用文档涵盖模型所需环境、模型简介以及复现模型的具体步骤。模型效果和模型详细来源可以点击论文地址和模型来源链接查看哦~

Bi-LSTM

2022-03-02 model:bi-lstm-ubuntu18.04-cuda11.1.1-cudnn8-python3.8-pytorch1.8.0-new

模型标签
文本分类

模型简介

模型介绍:LSTM:全称Long Short-Term Memory,是RNN(Recurrent Neural Network)的一种。LSTM由于其设计的特点,非常适合用于对时序数据的建模,如文本数据。BiLSTM是Bi-directional Long Short-Term Memory的缩写,是由前向LSTM与后向LSTM组合而成。两者在自然语言处理任务中都常被用来建模上下文信息。如果我们想要句子的表示,可以在词的表示基础上组合成句子的表示,那么我们可以采用相加的方法,即将所有词的表示进行加和,或者取平均等方法。但是这些方法很大的问题是没有考虑到词语在句子中前后顺序。而使用LSTM模型可以更好的捕捉到较长距离的依赖关系。因为LSTM通过训练过程可以学到记忆哪些信息和遗忘哪些信息。但是利用LSTM对句子进行建模也存在一个问题:无法编码从后到前的信息。而通过BiLSTM可以更好的捕捉双向的语义依赖。模型的任务是进行关系抽取研究,基于Attention机制的BiLSTM神经网络模型可以从每个句子中捕获最重要的语义信息,它不依赖于任何外部的知识或者NLP系统。论文地址:https://aclanthology.org/P16-2034.pdf


  1. 使用方法

  2. 模型来源


1. 使用方法

1.1. 环境配置

在终端,在root/BiLSTM(默认)路径下,运行以下命令:

cd ..
cd ..
# 进入根目录
cp -r datasets/SemEval2010_task8_all_data ../../user-data
# 将复现所需的公开数据集复制到指定文件夹下
mkdir model
cp -r modelsets/Bi-LSTM/model_epoch0.pkl ../../user-data/model
# 创建model文件夹,并将复现所需的预训练权重文件复制到model文件夹下

1.2. 模型推断

在终端,进入root/BiLSTM(默认)路径下,运行以下命令:

python interface.py

1.3. 模型训练

在终端,进入root/BiLSTM(默认)路径下,运行以下命令:

python train.py

1.4. 模型测试

在终端,进入root/BiLSTM(默认)路径下,运行以下命令:

python test.py

2. 模型来源

https://github.com/buppt/ChineseNRE