世界杯2018_世界杯北美区预选赛 - jmkxjj.com

程序员代码中的希腊字母表示

卷积神经网络中感受野的详细介绍

youandyourself_1:

那全连接层的感受野呢

深度学习中Flatten层的作用

weixin_43825570:

Con2D中 (None, 3, 32, 32)是怎么得到(None, 3, 32, 64)的?蹲个好心人

神经网络中Epoch、Iteration、Batchsize相关理解和说明

Rain(梦游):

batch size是一个批次里输入样本的数量吗

number of batches是总样本所分成的批次份数吗

权重衰减(weight decay)与学习率衰减(learning rate decay)

DashingPig:

请问当使用权重衰减时,loss函数中w能收敛而不是无限减小的原因是w的梯度更新中,既有惩罚项即含lambda部分的导数必是正数(这决定了w是往减小方向变化),又有原loss即含C部分的导数可正可负(这决定了当这部分为负时,w是往增大方向变化)吗?

其实我想问的是这样一种情况,当有个参数beta和b的情况相反,惩罚项即正则项中包含它,而原loss部分不包含它,那在进行梯度更新时,是不是意味着beta会无限减小?谢谢

对图像处理中alpha matte的一点理解

qq_47965075:

于是I=F+(1-a)B这里少了alpha吧

2025-09-09 18:48:30
友情链接