python画一元二次函数图像,用python画数学函数图像教程

  python画一元二次函数图像,用python画数学函数图像教程

  阅读鱼书并记录下来:

  批处理的好处和小批量的概念(2)Python(Numpy)实现了均方差、交叉熵损失函数等。(3)纯Python实现:函数导数、偏导数和梯度下降法的正切图(4)反向传播(BP算法)的纯Python实现(5)BN的好处和正则化(6)卷积神经网络的输入输出大小(7)

  1.阶跃函数

  import numpy as NP import matplotlib . py plot as PLT def step _ fun(x):#首先把array变成int返回np.array (x0,dtype=np.int)x=NP . arange(-5.0,5.0,0.1) y=step _ fun (x) PLT.plot

  2.Sigmoid函数(如果少用,梯度会消失)

  import numpy as NP import matplotlib . py plot as PLT def sigmoid(x):return 1/(1np . exp(-x))x=NP . arange(-5.0,5.0,0.1) y=sigmoid (x) plt.show (x,y) PLT。

  在某个值被输入到该转换器之后,其输出值是输入值的常数倍数的函数被称为线性函数(使用数学

  表达式为h(x)=cx。c是常数)。因此,线性函数是一条直线。非线性函数,顾名思义,是指不像线性函数那样呈现直线的函数。

  3.Tanh函数

  import numpy as NP import matplotlib . py plot as PLT def tanh(x):return(NP . exp(x)-NP . exp(-x))/(NP . exp(x)NP . exp(-x))x=NP . arange(-5.0,5.0,0.1)y=tanh(x)plt.plot(x,y)plt.show()

  4.Relu函数

  import numpy as NP import matplotlib . py plot as PLT def relu(x):return NP . maximum(0,x)x=np.arange(-5.0,5.0,0.1)y=relu(x)plt.plot(x,y)plt.show()

  数学上,一维数组叫做向量二维数组叫做矩阵。此外,广义向量或矩阵可统称为twdy(张量)。在本书中,二维数组基本称为“矩阵”,三维及以上数组称为“twdy”或“多维数组”。

  5.泄漏relu

  relu *0.01负轴上。

  import numpy as NP import matplotlib . py plot as PLT def Leaky _ relu(x):return NP . maximum(0.01 * x,x)x=np.arange(-5.0,5.0,0.1)y=Leaky_relu(x)plt.plot(x,y)plt.show()

  6.矩阵乘法导入numpy为NPA=np.array ([[1,2],[3,4]]) b=np.array ([[5,6],[7,8]]) print (np.dot (a,b))输出:[[19 22]

  [43 50]]

  黑客帝国例如:NP。三行两列的数组([[1,2],[3,4],[5,6]])不是三维矩阵。

  7.三层神经网络的实现(输入隐层*2输出层)Import numpy as NP def sigmoid(x):return 1/(1NP。EXP (-x)) x=NP。数组([1.0,0.5]) W1=NP。Array ([0.1,0.3,0.5 0.6]])b1=np.array([0.1,0.2,0.3])a1=np.dot(x,w1)b1z 1=Sigmoid(a1)W2=NP . array([[0.1,0.4],[0.2,0.5],[0.3,0.6]])b2=np.array([0.1,0.2])a2=np.dot(z1,W2)B2

  8.Softmax函数

  将numpy导入为NP def soft max(a):exp _ a=NP . exp(a)sum _ exp _ a=NP . sum(exp _ a)y=exp _ a/sum _ exp _ a return ya=NP . array([0.3,2.9,4.0]) print (soft

  导入numpy为NP def soft max(a):c=NP . max(a)exp _ a=NP . exp(a-c)sum _ exp _ a=NP . sum(exp _ a)y=exp _ a/sum _ exp _ a return ya=NP . array([0.3,2.9,4.0])y=soft max(a)print(y)print(NP . sum(y))soft max函数的输出是一个介于0.0和1.0之间的实数。并且,softmax函数的输出值之和为1。输出和为1是softmax函数的一个重要性质。

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: