上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人
2.2.1 RNN
我们使用下标表示输入时序序列的时序位置,即不同时刻,用表示在时刻的系统隐层状态(Hidden State)向量,用表示时刻的输入。时刻的隐层状态向量依赖于当前词和前一时刻的隐层状态向量:
(2.15)
其中,是一个非线性映射函数。一种通常的做法是计算的线性变换后经过一个非线性激活函数,例如:
(2.16)
其中,是可学习的参数矩阵,激活函数独立地应用到其输入的每个元素。
RNN的计算过程如图2-26所示,图中左边是输入,右边是输出。计算从左向右进行,整个运算包括3步:输入并分别乘以,两者结果相加,以及最后经过非线性变换输出。
图2-26 RNN的计算过程
我们可以认为存储了网络中的记忆(Memory),RNN 学习的目标是使得记录了在时刻之前(包含时刻)的输入信息。在新词输入到网络之后,之前的隐状态向量就转换为和当前输入有关的。