lstm(*input, **kwargs)
将多层长短时记忆(LSTM)神经网络应用于输入序列。
参数:
input_size:输入'x'中预期特性的数量
hidden_size:隐藏状态'h'中的特性数量
num_layers:循环层的数量。例如,设置' ' num_layers=2 ' '意味着将两个LSTM堆叠在一起,形成一个'堆叠的LSTM ',第二个LSTM接收第一个LSTM的输出并计算最终结果。默认值:1
bias:如果' False',则该层不使用偏置权重' b_ih '和' b_hh '。默认值:'True'
batch_first:如果' 'True ' ',则输入和输出张量作为(batch, seq, feature)提供。默认值: 'False'
dropout:如果非零,则在除最后一层外的每个LSTM层的输出上引入一个“dropout”层,相当于:attr:'dropout'。默认值:0
bidirectional:如果‘True',则成为双向LSTM。默认值:'False'
输入:input,(h_0, c_0)
**input**of shape (seq_len, batch, input_size):包含输入序列特征的张量。输入也可以是一个压缩的可变长度序列。
see:func:'torch.nn.utils.rnn.pack_padded_sequence' 或:func:'torch.nn.utils.rnn.pack_sequence' 的细节。
**h_0** of shape (num_layers * num_directions, batch, hidden_size):张量包含批处理中每个元素的初始隐藏状态。
如果RNN是双向的,num_directions应该是2,否则应该是1。
**c_0** of shape (num_layers * num_directions, batch, hidden_size):张量包含批处理中每个元素的初始单元格状态。
如果没有提供' (h_0, c_0) ',则**h_0**和**c_0**都默认为零。
输出:output,(h_n, c_n)
**output**of shape (seq_len, batch, num_directions * hidden_size) :包含LSTM最后一层输出特征' (h_t) '张量,
对于每个t. If a:class: 'torch.nn.utils.rnn.PackedSequence' 已经给出,输出也将是一个打包序列。
对于未打包的情况,可以使用'output.view(seq_len, batch, num_directions, hidden_size)',正向和反向分别为方向' 0 '和' 1 '。
同样,在包装的情况下,方向可以分开。
**h_n** of shape (num_layers * num_directions, batch, hidden_size):包含' t = seq_len '隐藏状态的张量。
与*output*类似, the layers可以使用以下命令分隔
h_n.view(num_layers, num_directions, batch, hidden_size) 对于'c_n'相似
**c_n** (num_layers * num_directions, batch, hidden_size):张量包含' t = seq_len '的单元状态
include:: cudnn_persistent_rnn.rst
import torch import torch.nn as nn # 双向rnn例子 # rnn = nn.RNN(10, 20, 2) # input = torch.randn(5, 3, 10) # h0 = torch.randn(2, 3, 20) # output, hn = rnn(input, h0) # print(output.shape,hn.shape) # torch.Size([5, 3, 20]) torch.Size([2, 3, 20]) # 双向lstm例子 rnn = nn.LSTM(10, 20, 2) #(input_size,hidden_size,num_layers) input = torch.randn(5, 3, 10) #(seq_len, batch, input_size) h0 = torch.randn(2, 3, 20) #(num_layers * num_directions, batch, hidden_size) c0 = torch.randn(2, 3, 20) #(num_layers * num_directions, batch, hidden_size) # output:(seq_len, batch, num_directions * hidden_size) # hn,cn(num_layers * num_directions, batch, hidden_size) output, (hn, cn) = rnn(input, (h0, c0)) print(output.shape,hn.shape,cn.shape) >torch.Size([5, 3, 20]) torch.Size([2, 3, 20]) torch.Size([2, 3, 20])
以上这篇基于pytorch的lstm参数使用详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
pytorch,lstm,参数
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新日志
- 王杰《这场游戏那场梦》 台湾华纳首版 [WAV+CUE][1G]
- 群星2005-《影视红声》2CD香港首版[WAV+CUE]
- 群星2017《聆听中国.风华国乐》试音碟[WAV+CUE]
- 群星2016-《环球词选.潘源良》环球[WAV+CUE]
- 张惠妹《爱的力量》10年情歌最精选 2CD[WAV+CUE][1.1G]
- 群星2009《LOVE TV情歌精选VOL.2》香港首版[WAV+CUE][1.1G]
- 周慧敏《玉女天后》原音母版1:1直刻[WAV+CUE][1G]
- 李国祥.1994-心倦(EP)(2015新世纪复刻版)【嘉音】【WAV+CUE】
- 杨采妮.1993-爱的感觉【EMI百代】【WAV+CUE】
- 潘盈.1993-旧情绵绵【名将】【WAV+CUE】
- 西野カナ《Loveit》24-96[FLAC]
- 群星2016-《环球词选周礼茂》[环球][WAV+CUE]
- XSProject-Бочкабасколбаср(TheBestOf)(LimitedEdition)[2024][WAV]
- 群星1997 《国语卖座舞曲大碟》引进版[WAV+CUE][1.1G]
- 汪峰 白金超精选专辑《笑着哭》[WAV+CUE][1G]