欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
  • 深度学习-TensorFlow2.0笔记(一)

    一、Tensor 1.1 什么是Tensor?Tensor的数据类型 Tensor是张量的意思,在TensorFlow中张量可以是标量(scalar)、向量(vector)、矩阵(matrix)、高维度张量(rank>2),像Numpy里的数组就不属于Tensor。TensorFlow里的常用的数据 ...

    程序员文章站2024-03-30
  • ROS学习笔记------ROS深度解析----- day 6 2019/3/14 帅某(Karto SLAM算法学习)

    Karto SLAM算法学习博主地址:https://www.cnblogs.com/yhlx125/p/5694370.htmlKarto_slam算法是一个Graph based SLAM算法。包括前端和后端。关于代码要分成两块内容来看。一类是OpenKarto项目,是最初的开源代码,包括算法的...

    程序员文章站2024-03-25
  • 【深度学习笔记】torch.nn.Sequential(* args) 与 torch.nn.Module

    前言二者主要是用于搭建神经网络。使用类(继承torch.nn.Moudule)可以实现灵活搭建。使用 torch.nn.Sequential 可以实现快速搭建。一、class torch.nn.Sequential(* args)一个时序容器。Modules 会以他们传入的顺序被添加到容器中。因此,...

    程序员文章站2024-03-24
  • 深度学习花书 笔记3 - 矩阵对角化、奇异值分解(SVD)、极大似然估计、误差的高斯分布与最小二乘估计的等价性、PCA原理与推导

    深度学习花书 笔记3 - 矩阵对角化、奇异值分解(SVD)、极大似然估计、误差的高斯分布与最小二乘估计的等价性、PCA原理与推导)1. 矩阵对角化2. 奇异值分解3. 极大似然估计、误差的高斯分布与最小二乘估计的等价性4. PCA原理与推导1. 矩阵对角化2. 奇异值分解3. 极大似然估计、误差的高...

    程序员文章站2024-03-19
  • Pytorch深度学习框架YOLOv3目标检测学习笔记(二)——创建网络框架的层

    开始创建工程代码目录创建darknet.py,darknet是YOLO的基础结构框架,这个文件包含创建YOLO网络的代码,用util.py文件包含的多种有用的函数代码对darknet.py提供支持,将这两个文件放到目录中去配置文件官方代码(c语言)使用配置文件来建立网络,cfg文件描述了网络布局,块...

    程序员文章站2024-03-17
  • 深度学习与PyTorch笔记2

    开发环境准备Python3.7+Anaconda5.3.1安装完成后的测试:1.运行cmd>conda list检测下载的包2.运行cmd>conda --version检测下载的版本(conda 4.5.12)CUDA 10.0安装完成后的检测:安装路径下的bin目录中有nvcc的程序...

    程序员文章站2024-03-15
  • tensorflow深度学习实战笔记(一):使用tensorflow slim自带的模型训练自己的数据

    目录0、准备1、数据处理---图片格式转成TFRecord格式2、模型训练3、验证训练后的效果说明:此处可以模仿源码中inception v3的分类案例slim预训练好的包含inception v1,inception v2,inception v3,inception v4,mobilenet v...

    程序员文章站2024-03-15
  • 《动手学深度学习》task2——文本预处理,语言模型,循环神经网络基础笔记

    系统学习《动手学深度学习》点击这里:《动手学深度学习》task1_1 线性回归《动手学深度学习》task1_2 Softmax与分类模型《动手学深度学习》task1_3 多层感知机《动手学深度学习》task2_1 文本预处理《动手学深度学习》task2_2 语言模型《动手学深度学习》task2_3 ...

    程序员文章站2024-03-14
  • Tensorflow 实战Google深度学习框架——学习笔记(六)LeNet-5网络实现MNIST手写数字集识别

    使用LeNet-5模型实现MNIST手写数字识别,其神经网络架构如下: 一、详细介绍LeNet-5模型每一层的结构第一层,卷积层这一层输入原始的图像像素,接受的输入层大小为32*32*1,第一个卷积层过滤器尺寸为5*5,共6个,不使用全0填充,步长为1。输出尺寸为32-5+1=28,为28*28*6...

    程序员文章站2024-03-14
  • B站吴恩达深度学习视频笔记(10)——从计算图(Computational Graph)角度计算梯度下降

    前言计算图是一个很重要的概念。在上一篇笔记里面,我们把公式写进小格子里面看作图的一个结点,通过图结点的前驱和后继完成对于参数的更新,以及数值的运算,这就是计算图的用法。为了更好地在神经网络中利用计算图做点事情,这篇笔记会告诉你如何使用计算图计算梯度下降(梯度下降光讲是啥了,还没说怎么算呢)计算图计算...

    程序员文章站2024-03-07
  • B站吴恩达深度学习视频笔记(13)——实战1:动手搭建第一个神经网络

    前言到此为止,神经网络基础就正式告一段落。坚持看到这篇文章的同学,恭喜你,你已经正式入门机器学习了。不过吴恩达老师视频不可能给我们现场演示写代码,所以课下实现老师所讲的内容就要靠我们自己了。下面我们自己来动手搭建第一个神经网络吧。教程概述这里不需要编写太多的代码,不过我们将一步步慢慢地告诉你怎么以后...

    程序员文章站2024-03-07
  • B站吴恩达深度学习视频笔记(11)——多样本梯度下降和向量化处理多批次数据

    前言多样本梯度下降原理和单样本是一样的,只不过使用了代价函数——样本集中每个样本对应损失函数的平均值。而向量化对于深度学习处理数据速度的提升是非常大的,我们结合刚刚的多样本梯度下降讲一下向量化。m 个样本的梯度下降和向量化处理数据在之前的笔记中,已经讲述了如何计算导数,以及应用梯度下降在逻辑回归的一...

    程序员文章站2024-03-07
  • 斯坦福大学深度学习公开课cs231n学习笔记(7)神经网络防止数据过拟合:损失函数和正则化

    在第二节课中,大概提到了线性分类器的损失函数和正则化方法,类似的,在神经网络中也会用到这几个概念方法。这里我没有按照课中先正则化后损失函数的顺序做笔记,还是先说损失函数(也叫代价函数)部分。损失函数损失函数是一个有监督学习问题,用于衡量分类算法的预测结果(分类评分)和真实结果之间的一致性。数据损失是...

    程序员文章站2023-12-30
  • MXNet设计笔记:深度学习的编程模式比较

    【编者按】继xgboost,cxxnet,minerva之后,DMLC在9月29日发布了新的Project:dmlc/MXNet,MXNet是cxxnet的进化,在设计上经过成熟的思考,文

    程序员文章站2023-03-20
  • 深度学习笔记 - IoU python 高质量实现

    文章目录深度学习笔记7 - IoU python 实现一、IoU 含义二、算法实现深度学习笔记7 - IoU python 实现一、IoU 含义二、算法实现算法思想#!/usr/bin/env python# encoding: utf-8'''@Author : pentiumCM@Email : 842679178@qq.com@Software: PyCharm@File : iou_utils.py@Time : 2020/11/22 15:32@de

    程序员文章站2022-12-07
  • 深度学习-TensorFlow2.0笔记(一)

    深度学习-TensorFlow2.0笔记(一)

    一、Tensor 1.1 什么是Tensor?Tensor的数据类型 Tensor是张量的意思,在TensorFlow中张量可以是标量(scalar)、向量(vector)、矩阵(matrix)、高维度张量(rank>2),像Numpy里的数组就不属于Tensor。TensorFlow里的常用的数据 ...

    程序员文章站2022-10-04
    IT编程
  • 【TensorFlow实战Google深度学习框架】学习笔记(tensorflow入门)

    【TensorFlow实战Google深度学习框架】学习笔记(tensorflow入门)

    tensorflow三要素计算模型:计算图(graph)数据模型:张量(tensor)运行模型:会话(session)用tensorflow实现神经网络1、前向传播算法介绍2、用tensorflow构建前向神经网络-代码#%%import tensorflow as tffrom numpy.ran...

    程序员文章站2022-07-14
  • Coursera吴恩达《神经网络与深度学习》课程笔记(3)-- 神经网络基础之Python与向量化

    Coursera吴恩达《神经网络与深度学习》课程笔记(3)-- 神经网络基础之Python与向量化

    上节课我们主要介绍了逻辑回归,以输出概率的形式来处理二分类问题。我们介绍了逻辑回归的Cost function表达式,并使用梯度下降算法来计算最小化Cost function时对应的参数w和b。通过计算图的方式来讲述了神经网络的正向传播和反向传播两个过程。本节课我们将来探讨Python和向量化的相关...

    程序员文章站2022-07-14
  • 优达学城-深度学习笔记(一)

    优达学城-深度学习笔记(一)

    优达学城-深度学习笔记(一)标签: 机器学习优达学城-深度学习笔记一一 神经网络简介最大似然概率交叉熵Cross entropy1交叉熵代码实现2多类别交叉熵对数几率回归的误差函数cost function梯度下降代码神经网络2 反向传播二梯度下降的神经网络梯度下降代码实现反向传播示例反向传播代码实...

    程序员文章站2022-07-13
  • 深度学习笔记二:keras+cnn+mnist cnn模型的创建、保存、调用

    google colab的使用、文件路径设置参见上一篇博客:深度学习笔记一:google colab使用入门+mnist数据集入门+Dense层预测本节笔记参考了Mike高的视频一个完整的cnn模型#CNN mnistimport numpy as npfrom keras.datasets imp...

    程序员文章站2022-07-13