标签:吴恩达 randn 第一周 random 神经网络 shape 第二周 np 数据
第一周测验 - 深度学习简介
主要是不翻墙就没办法加载图片,这里将选择题图片贴一下。
对于深度学习课程中的coding tests严格遵守课程要求不外泄~
1.和“AI是新电力”相类似的说法是什么?
【 】AI为我们的家庭和办公室的个人设备供电,类似于电力。
【 】通过“智能电网”,AI提供新的电能。
【 】AI在计算机上运行,并由电力驱动,但是它正在让以前的计算机不能做的事情变为可能。
【★】就像100年前产生电能一样,AI正在改变很多的行业。
请注意: 吴恩达在视频中表达了同样的观点。
2.哪些是深度学习快速发展的原因? (两个选项)
【★】 现在我们有了更好更快的计算能力。
【 】神经网络是一个全新的领域。
【★】 我们现在可以获得更多的数据。
【 】深度学习已经取得了重大的进展,比如在在线广告、语音识别和图像识别方面有了很多的应用。
3.回想一下关于不同的机器学习思想的迭代图。下面哪(个/些)陈述是正确的?
【★】能够让深度学习工程师快速地实现自己的想法。
【★】在更好更快的计算机上能够帮助一个团队减少迭代(训练)的时间。
【 】在数据量很多的数据集上训练上的时间要快于小数据集。
【★】 使用更新的深度学习算法可以使我们能够更快地训练好模型(即使更换CPU / GPU硬件)。
请注意: 同一模型在较大的数据集上通常需要花费更多时间。
4.当一个经验丰富的深度学习工程师在处理一个新的问题的时候,他们通常可以利用先前的经验来在第一次尝试中训练一个表现很好的模型,而不需要通过不同的模型迭代多次从而选择一个较好的模型,这个说法是正确的吗?
【 】正确
【★】 错误
请注意:也许之前的一些经验可能会有所帮助,但没有人总是可以找到最佳模型或超参数而无需迭代多次。
5.这些图中的哪一个表示ReLU激活功能?
6.用于识别猫的图像是“结构化”数据的一个例子,因为它在计算机中被表示为结构化矩阵,是真的吗?
【 】正确
【★】 错误
图片属于非结构化数据。
7.统计不同城市人口、人均GDP、经济增长的人口统计数据集是“非结构化”数据的一个例子,因为它包含来自不同来源的数据,是真的吗?
【 】正确
【★】 错误
单纯的看以上数据的话就是非结构化数据,但是这些数据都被整合到了数据集里面,所以是结构化数据。
8.为什么在上RNN(循环神经网络)可以应用机器翻译将英语翻译成法语?
【★】 因为它可以被用做监督学习。
【 】严格意义上它比卷积神经网络(CNN)效果更好。
【★】 它比较适合用于当输入/输出是一个序列的时候(例如:一个单词序列)
【 】RNNs代表递归过程:想法->编码->实验->想法->…
9.在我们手绘的这张图中,横轴(x轴)和纵轴(y轴)代表什么?
x轴是数据量
y轴(垂直轴)是算法的性能
10.假设上一个问题图中描述的是准确的(并且希望您的轴标签正确),以下哪一项是正确的?
【★】 增加训练集的大小通常不会影响算法的性能,这可能会有很大的帮助。
【★】 增加神经网络的大小通常不会影响算法的性能,这可能会有很大的帮助。
【 】减小训练集的大小通常不会影响算法的性能,这可能会有很大的帮助。
【 】减小神经网络的大小通常不会影响算法的性能,这可能会有很大的帮助。
第2周测验 - 神经网络基础
1.神经元节点计算什么?
【 】神经元节点先计算激活函数,再计算线性函数(z = Wx + b)
【★】神经元节点先计算线性函数(z = Wx + b),再计算激活。
【 】神经元节点计算函数g,函数g计算(Wx + b)。
【 】在 将输出应用于激活函数之前,神经元节点计算所有特征的平均值
请注意:神经元的输出是a = g(Wx + b),其中g是激活函数(sigmoid,tanh,ReLU,…)。
2.下面哪一个是Logistic损失?
详解:https://en.wikipedia.org/wiki/Cross_entropy#Cross-entropy_error_function_and_logistic_regression
3.假设img是一个(32,32,3)数组,具有3个颜色通道:红色、绿色和蓝色的32x32像素的图像。 如何将其重新转换为列向量?
x = img.reshape((32 * 32 * 3, 1))
4.看一下下面的这两个随机数组“a”和“b”:请问数组c的维度是多少?
a = np.random.randn(2, 3) # a.shape = (2, 3) b = np.random.randn(2, 1) # b.shape = (2, 1) c = a + b
答: B(列向量)复制3次,以便它可以和A的每一列相加,所以:c.shape = (2, 3)
5.看一下下面的这两个随机数组“a”和“b”:
a = np.random.randn(4, 3) # a.shape = (4, 3) b = np.random.randn(3, 2) # b.shape = (3, 2) c = a * b
请问数组“c”的维度是多少?
答:运算符 “*” 说明了按元素乘法来相乘,但是元素乘法需要两个矩阵之间的维数相同,所以这将报错,无法计算。
6.假设你的每一个实例有n_x个输入特征,想一下在X=[x^(1), x^(2)…x^(m)]中,X的维度是多少?
答: (n_x, m)
请注意:一个比较笨的方法是当l=1的时候,那么计算一下Z(l)=W(l)A(l)Z(l)=W(l)A(l),所以我们就有:
A(1)A(1) = X
X.shape = (n_x, m)
Z(1)Z(1).shape = (n(1)n(1), m)
W(1)W(1).shape = (n(1)n(1), n_x)
7.回想一下,np.dot(a,b)在a和b上执行矩阵乘法,而`a * b’执行元素方式的乘法。
看一下下面的这两个随机数组“a”和“b”:
a = np.random.randn(12288, 150) # a.shape = (12288, 150) b = np.random.randn(150, 45) # b.shape = (150, 45) c = np.dot(a, b)
请问c的维度是多少?
答: c.shape = (12288, 45), 这是一个简单的矩阵乘法例子。
8.看一下下面的这个代码片段:
# a.shape = (3,4) # b.shape = (4,1) for i in range(3): for j in range(4): c[i][j] = a[i][j] + b[j]
请问要怎么把它们向量化?
答:c = a + b.T
9.看一下下面的代码:
a = np.random.randn(3, 3) b = np.random.randn(3, 1) c = a * b
请问c的维度会是多少?
答:这将会使用广播机制,b会被复制三次,就会变成(3,3),再使用矩阵乘法,按元素乘积。所以: c.shape = (3, 3).
10.看一下下面的计算图:
J = u + v - w
= a * b + a * c - (b + c)
= a * (b + c) - (b + c)
= (a - 1) * (b + c)
答: (a - 1) * (b + c)
标签:吴恩达,randn,第一周,random,神经网络,shape,第二周,np,数据 来源: https://www.cnblogs.com/baobaotql/p/11678117.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。