GVKun编程网logo

python pytorch numpy DNN 线性回归模型(pytorch线性回归代码)

2

本文将分享pythonpytorchnumpyDNN线性回归模型的详细内容,并且还将对pytorch线性回归代码进行详尽解释,此外,我们还将为大家带来关于@全体PyTorch开发者,OpenVINO™

本文将分享python pytorch numpy DNN 线性回归模型的详细内容,并且还将对pytorch线性回归代码进行详尽解释,此外,我们还将为大家带来关于@全体 PyTorch 开发者,OpenVINO™ 已支持整合 PyTorch 实现推理加速、docker拉取镜像时报错ERROR: failed to do request: Head https://registry-1.docker.io/v2/pytorch/pytorch/manif、Jupyter 中的 Numpy 在打印时出错(Python 版本 3.8.8):TypeError: 'numpy.ndarray' object is not callable、numpy.random.random & numpy.ndarray.astype & numpy.arange的相关知识,希望对你有所帮助。

本文目录一览:

python pytorch numpy DNN 线性回归模型(pytorch线性回归代码)

python pytorch numpy DNN 线性回归模型(pytorch线性回归代码)

1、直接奉献代码,后期有入门更新,之前一直在学的是TensorFlow,

import torch
from torch.autograd import Variable
import torch.nn.functional as F
import matplotlib.pyplot as plt
import numpy as np


x_data = np.arange(-2*np.pi,2*np.pi,0.1).reshape(-1,1)
y_data = np.sin(x_data).reshape(-1,1)

x = torch.unsqueeze(torch.linspace(-5, 5, 100), dim=1)  # 将1维的数据转换为2维数据
# y = x.pow(2) + 0.2 * torch.rand(x.size())
y = torch.cos(x)
# 将tensor置入Variable中 
x, y = Variable(torch.from_numpy(x_data)).float(), Variable(torch.from_numpy(y_data)).float()
print(x.shape,y.shape)

# plt.scatter(x.data.numpy(), y.data.numpy())
# plt.show()

# 定义一个构建神经网络的类 
class Net(torch.nn.Module):  # 继承torch.nn.Module类
    def __init__(self):
        super(Net, self).__init__()  # 获得Net类的超类(父类)的构造方法
        # 定义神经网络的每层结构形式
        # 各个层的信息都是Net类对象的属性
        self.hidden = torch.nn.Linear(1, 10)  # 隐藏层线性输出
        self.centre_1 = torch.nn.Linear(10,20)
        self.predict = torch.nn.Linear(20, 1)  # 输出层线性输出

    # 将各层的神经元搭建成完整的神经网络的前向通路
    def forward(self, x):
        x = F.tanh(self.hidden(x))  # 对隐藏层的输出进行relu激活
        x_1 = F.tanh(self.centre_1(x))
        x =F.tanh(self.predict(x_1))
        return x

    # 定义神经网络


net = Net()
print(net)  # 打印输出net的结构

# 定义优化器和损失函数 
optimizer = torch.optim.SGD(net.parameters(), lr=0.5)  # 传入网络参数和学习率
loss_function = torch.nn.MSELoss()  # 最小均方误差
acc = lambda y1,y2: np.sqrt(np.sum(y1**2+y2**2)/len(y1))

# 神经网络训练过程 
plt.ion()  # 动态学习过程展示 
plt.show()

for t in range(100):
    prediction = net(x)  # 把数据x喂给net,输出预测值
    loss = loss_function(prediction, y)  # 计算两者的误差,要注意两个参数的顺序
    optimizer.zero_grad()  # 清空上一步的更新参数值
    loss.backward()  # 误差反相传播,计算新的更新参数值
    optimizer.step()  # 将计算得到的更新值赋给net.parameters()

    # 可视化训练过程
    if (t + 1) % 2 == 0:
        plt.cla()
        plt.scatter(x.data.numpy(), y.data.numpy())
        plt.plot(x.data.numpy(), prediction.data.numpy(), ''r-'', lw=2)
        aucc = acc(prediction.data.numpy(),y.data.numpy())
        print("loss={} aucc={}".format(loss.data.numpy(),aucc))
        plt.text(-4.5, 1,
                 ''echo=%sL=%.4f acc=%s'' % (t+1,loss.data.numpy(),aucc),
                 fontdict={''size'': 15, ''color'': ''red''})
        plt.pause(0.1)
print("训练结束")
plt.ioff()
plt.show()

 

@全体 PyTorch 开发者,OpenVINO™ 已支持整合 PyTorch 实现推理加速

@全体 PyTorch 开发者,OpenVINO™ 已支持整合 PyTorch 实现推理加速


编译:李翊玮


你是否希望在最少的代码更改下

将 PyTorch API 与 OpenVINO 工具套件结合提升推理性,同时进行?

—— 不用再犹豫了!

我们与微软紧密合作开发并很高兴地宣布

OpenVINO™ integration with Torch-ORT(中文 OpenVINO™ 与 Torch-ORT 集成)

完成了!

详细介绍

OpenVINO™ 重塑了在英特尔 ® 支持设备下人工智能推理的定义,获得了前所未有的开发者采用。如今,成千上万的开发者使用 OpenVINO™ 在几乎所有可以想象的用例中加速 AI 推理,从模拟人类视觉,自动语音识别,自然语言处理,推荐系统等等。该工具套件基于最新一代的人工神经网络,包括卷积神经网络 (CNNs)、循环网络和基于注意力的网络,可跨英特尔 ® 硬件(英特尔 ® CPU、英特尔 ® 集成显卡、英特尔 ® 独立显卡等)扩展视觉和非视觉工作负载,最大限度地提高性能。OpenVINO™ 通过从边缘部署到云的高性能、AI 和深度学习推理来加速应用程序。


随着 OpenVINO™ 生态系统的发展,我们从 PyTorch 开发者听到希望使用更无缝的方法来加速 PyTorch 模型。在此之前,想要加速模型的 PyTorch 开发者必须将其模型转换为 ONNX,然后使用 OpenVINO 运行时运行它,或者将 ONNX 模型转换为 OpenVINO 工具套件 IR 以进行推理。


这给 PyTorch 开发者带来了几个问题,例如:

由于 ONNX 转换不支持的层(layers)/ 运算符(operators)而导致的 ONNX 转换失败;

由于 OpenVINO 不支持的转换模型的(layers)/ 运算符(operators)而导致的 ONNX 推理失败模型

转换所需的额外步骤(PyTorch -> ONNX, ONNX -> OpenVINO IR 等)


为什么 PyTorch 开发者应该使用 OpenVINO 与 Torch-ORT 的集成?

OpenVINO™ 与 Torch-ORT 的集成使 PyTorch 开发者能够始终保持在他们选择的框架内,同时通过用于的内联优化来获得 OpenVINO 工具套件的推理加速能力加速你的 PyTorch 应用程序。


通过 OpenVINO 与 Torch-ORT 集成加速 PyTorch 性能:

易于安装 — 将 OpenVINO 与 Torch-ORT 与 PIP 集成;

简单的 API — 无需重构现有代码,只需导入 OpenVINO 与 Torch-ORT 的集成,将所需的目标设备设置为运行推理并包装模型即可开始使用;

性能 — 实现比原有 PyTorch 更高的推理性能;

支持英特尔设备 — 英特尔 ® CPU、英特尔 ® 集成 GPU、英特尔 ® VPU;

内联模型转换 — 无需显式模型转换步骤


它是如何运作的?


  1. 用户将他们的 nn.Model 包装于 torch_ort.ORTInferenceModule, 使用在准备用于推理 ONNX Runtime OpenVINO Execution Provider 的模块;


  2. 该模块用 torch.onnx.export 导出至内存 ONNX 图形;

  3. 启动 ONNX Runtime session 时,ONNX graph 会作为输入。ONNX Runtime 将用受支持和不受支持的运算符原则将 graph 划分为 subgraph;


  4. 所有与 OpenVINO™ 兼容的节点都将由 OpenVINO™ Execution Provider 执行,并且可以在英特尔 ® CPU,GPU 或 VPU 上执行;


  5. 所有其他节点将回退到默认的 CPU MLAS Execution Provider 程序。该程序将为默认运算符 set domain 中的节点调用 ONNX Runtime 自己的 CPU 内核。


开发者体验

开始使用 OpenVINO 与 Torch-ORT 的集成很容易,因为它遵循了 PyTorch 编程方式。下面是从 HuggingFace Transformers 中获取预训练的 NLP BERT 模型并使其与 OpenVINO™ 与 Torch-ORT 集成兼容的代码。


代码示例

安装:

pip install torch-ort-infer[openvino]python -m torch_ort.configure

定义模型:

from torch_ort import ORTInferenceModule model = ORTInferenceModule(model)Provider options for different devices from torch_ort import ORTInferenceModule, OpenVINOProviderOptions provider_options = OpenVINOProviderOptions(backend = "GPU", precision = "FP16") model = ORTInferenceModule(model, provider_options = provider_options)

代码示例:


通过简单地包装你的 nn.Module 与 ORTInferenceModule 您可以获得 OpenVINO™ 推理加速的优势。

from transformers import AutoTokenizer, AutoModelForSequenceClassificationimport numpy as npfrom torch_ort import ORTInferenceModuletokenizer = AutoTokenizer.from_pretrained(            "textattack/bert-base-uncased-CoLA")model = AutoModelForSequenceClassification.from_pretrained(        "textattack/bert-base-uncased-CoLA") # Convert nn.Module to ORTInferenceModule to leverage OpenVINO on CPUmodel = ORTInferenceModule(model)text = "Replace me any text by you''d like ."encoded_input = tokenizer(text, return_tensors=''pt'')output = model(**encoded_input) # Post processinglogits = output.logitslogits = logits.detach().cpu().numpy() # predictionspred = np.argmax(logits, axis=1).flatten()print("Grammar correctness label (0=unacceptable, 1=acceptable)")print(pred)

通过两行代码,OpenVINO™ 与 Torch-ORT 的集成可以帮助确保你获得出色的推理性能,并利用完整的 OpenVINO 工具套件提供的大部分功能。如果你有兴趣尝试它,请查看 Github 存储库并阅读此处提供的详细文档。

Github 存储库地址:

https://github.com/pytorch/ort


实例代码:在 Python 中使用 Torch-ORT 推理模块进行 Resnet 图像分类

本演示展示了如何使用 OpenVINO 与 Torch-ORT 的集成对图像中的对象进行分类。

我们使用 Torchvision 的图像分类模型 ResNet-50 和 ImageNet 标签对对象进行分类。在标签文件中,你将找到 Imagenet 竞赛中使用的 1,000 个不同类别  。

导入必要的资源:

import osimport timeimport torchimport wgetimport argparsefrom PIL import Imagefrom torchvision import transformsimport torchvision.models as modelsfrom torch_ort import ORTInferenceModule, OpenVINOProviderOptions
下载图像标签档案:

  • 从 github 下载 imagenet 分类档案

def download_labels(labels):    if not labels:        labels = "imagenet_classes.txt"        if not os.path.exists(labels):            labelsUrl = (                "https://raw.githubusercontent.com/pytorch/hub/master/imagenet_classes.txt"            )            # Download the file (if we haven''t already)            wget.download(labelsUrl)        else:            print("\nReusing downloaded imagenet labels")
   # Read the categories    with open(labels, "r") as f:        categories = [s.strip() for s in f.readlines()]      return categories
预处理功能:

  • 调整输入大小

  • 裁剪输入

  • 将图像输入转换为张量并归一化

def preprocess(img):    transform = transforms.Compose(        [            transforms.Resize(256),            transforms.CenterCrop(224),            transforms.ToTensor(),            transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),        ]    )    return transform(img)
推理功能:

  • 对输入图像运行推理

  • 打印推理结果

def infer(model, image, categories):    # warmup    model(image)
   # Start inference    t0 = time.time()    outputs = model(image)    t1 = time.time() - t0    print("\nInference time: {:.4f}ms\n".format(t1 * 1000))
   # The output has unnormalized scores. Run a softmax on it for probabilities.    probabilities = torch.nn.functional.softmax(outputs[0], dim=0)
   # Show top categories per image    top5_prob, top5_catid = torch.topk(probabilities, 5)    print("Top 5 Results: \nLabels , Probabilities:")    for i in range(top5_prob.size(0)):        print(categories[top5_catid[i]], top5_prob[i].item())
获取输入档案:

#Create List of files in the directoryfiles = os.listdir(''.'')
#Get the necessary files into the directory if they don''t already existif (''plane.jpg'' not in files):  !wget https://media.wired.com/photos/62b25f4c18e6fafaa97a6477/master/pass/Air-Serbia-Plane-Russian-Sanctions-Safety-Hazard-Business-1239498184.jpg -O
运行结果:

选择输入代码:

  • 使用 input_file 选择要推理的输入图像

  • 可用的后端精度

    · CPU:FP32

    · GPU(不协作):FP32, FP16

  • 可用的推理执行提供程序

    · OpenVINO

input_file = "plane.jpg"backend ="CPU"precision = "FP32"

运行结果

使用原生 PyTorch 运行推理:

# Inferinfer(model, img_trans, categories)

运行结果

使用 Torch-ORT module 运行推理:

# Select OpenVINO as inference execution providerif backend and precision:    provider_options = OpenVINOProviderOptions(backend, precision)    model_ort = ORTInferenceModule(model, provider_options=provider_options)else:    model_ort = ORTInferenceModule(model)
# Inferinfer(model_ort, img_trans, categories)img.close()

运行结果

在这个案例里,由以上两种推理结果可以看出推理时间因使用了 Torch-ORT 模块得到了加速,用 PyTorch 的小伙伴们,赶快动起来试试,看是否你的模型也用此方案能得到性能提升


你还能从这里期待什么?

其他代码示例(Python scripts、Jupyter Notebooks)更多 TorchVision 和 HuggingFace Transformers 模型覆盖范围;

更多 TorchVision 和 HuggingFace Transformers 模型覆盖范围。


开始使用英特尔 ® DevCloud

英特尔 ® DevCloud 是一个云开发环境,使开发者能够以最少的设置在英特尔硬件上开发和基准测试人工智能和计算机视觉解决方案的性能。面向边缘的 DevCloud 预装了 OpenVINO集成与 Torch-ORT [beta] 以及代码片段,可帮助您加快开发过程。要开始使用,请按照以下步骤操作:


步骤 1. 此处注册并登录免费访问

https://notebooks.edge.devcloud.intel.com/hub/login?next=/lab&RefURL=/content/www/us/en/develop/tools/devcloud/edge/build.html


步骤 2. 向下滚动并选择 OpenVINO™ 集成 Torch - ORT [beta] Notebook


步骤 3. 打开代码片段,搜索 “OpenVINO Torch-ORT [beta]”,将代码片段拖放到笔记本中


步骤 4. 运行单元

如果您遇到任何问题,请联系英特尔 ® DevCloud 支持团队。

https://community.intel.com/t5/Intel-DevCloud/bd-p/devcloud


通知和免责声明:

英特尔技术可能需要支持的硬件、软件或服务激活。

没有任何产品或组件是绝对安全的。

您的费用和结果可能会有所不同。

© 英特尔公司。英特尔、英特尔徽标和其他英特尔标志是英特尔公司或其子公司的商标。其他名称和品牌可能是其他方的财产。

如欲了解更多 OpenVINO™ 开发资料,

请扫描下方二维码,

我们会把最新资料及时推送给您。


* 本文内容及配图均为 “英特尔物联网” 的原创内容。该公众号的运营主体拥有上述内容的著作权或相应许可。除在微信朋友圈分享之外,如未经该运营主体书面同意,请勿转载、转帖或以其他任何方式复制、发表或发布上述内容。如需转载上述内容或其中任何部分,请留言联系。


英特尔、英特尔标识、以及其他英特尔商标是英特尔公司或其子公司在美国和 / 或其他国家的商标。

© 英特尔公司版权所有。

* 文中涉及的其它名称及商标属于各自所有者资产


--END--


                        
                        
                        

你也许想了解(点击蓝字查看)⬇️

➡️ OpenVINO™ 2022.2新版本来啦

➡️ OpenVINO2022 Python API详解与演示

➡️ 基于POT工具API模式的模型量化方法

➡️ 基于OpenVINO C++ 接口部署飞桨表计识别模型

➡️Notebook系列第十期】图像风格转换



欢迎在留言区与我们互动哦,
点击小程序 留言区 即可参与

留言区


扫描下方二维码立即体验 

OpenVINO™ 工具套件 2022.2



点击 阅读原文 立即体验 OpenVINO 2022.2

文章这么精彩,你有没有 “在看”?

本文分享自微信公众号 - OpenVINO 中文社区(openvinodev)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与 “OSC 源创计划”,欢迎正在阅读的你也加入,一起分享。

docker拉取镜像时报错ERROR: failed to do request: Head https://registry-1.docker.io/v2/pytorch/pytorch/manif

docker拉取镜像时报错ERROR: failed to do request: Head https://registry-1.docker.io/v2/pytorch/pytorch/manif

问题复现

docker 执行docker file文件时报错:

#3 ERROR: Failed to do request: Head https://registry-1.docker.io/v2/pytorch/pytorch/manifests/1.6.0-cuda10.1-cudnn7-devel: dial tcp: lookup registry-1.docker.io on 192.168.65.5:53: no such host

 > [internal] load Metadata for docker.io/pytorch/pytorch:1.6.0-cuda10.1-cudnn7-devel:

Failed to solve with frontend dockerfile.v0: Failed to create LLB deFinition: Failed to do request: Head https://registry-1.docker.io/v2/pytorch/pytorch/manifests/1.6.0-cuda10.1-cudnn7-devel: dial tcp: lookup registry-1.docker.io on 192.168.65.5:53: no such host

或者,docker拉取镜像时报错:

Error response from daemon: Head https://registry-1.docker.io/v2/nvidia/cuda/manifests/10.1-cudnn7-devel-ubuntu16.04: Get https://auth.docker.io/token?account=yang929604665&scope=repository%3Anvidia%2Fcuda%3Apull&service=registry.docker.io: EOF

原因:

鉴于国内网络问题,后续拉取 Docker 镜像十分缓慢,需要配置加速器来解决,可以使用的是网易的镜像地址:http://hub-mirror.c.163.com。

解决办法:

C:\Users\用户名\.docker

路径的
daemon.json文件中,修改为

{
  "registry-mirrors": ["http://hub-mirror.c.163.com"],
}

Jupyter 中的 Numpy 在打印时出错(Python 版本 3.8.8):TypeError: 'numpy.ndarray' object is not callable

Jupyter 中的 Numpy 在打印时出错(Python 版本 3.8.8):TypeError: 'numpy.ndarray' object is not callable

如何解决Jupyter 中的 Numpy 在打印时出错(Python 版本 3.8.8):TypeError: ''numpy.ndarray'' object is not callable?

晚安, 尝试打印以下内容时,我在 jupyter 中遇到了 numpy 问题,并且得到了一个 错误: 需要注意的是python版本是3.8.8。 我先用 spyder 测试它,它运行正确,它给了我预期的结果

使用 Spyder:

import numpy as np
    for i in range (5):
        n = np.random.rand ()
    print (n)
Results
0.6604903457995978
0.8236300859753154
0.16067650689842816
0.6967868357083673
0.4231597934445466

现在有了 jupyter

import numpy as np
    for i in range (5):
        n = np.random.rand ()
    print (n)
-------------------------------------------------- ------
TypeError Traceback (most recent call last)
<ipython-input-78-0c6a801b3ea9> in <module>
       2 for i in range (5):
       3 n = np.random.rand ()
---->  4 print (n)

       TypeError: ''numpy.ndarray'' object is not callable

感谢您对我如何在 Jupyter 中解决此问题的帮助。

非常感谢您抽出宝贵时间。

阿特,约翰”

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

numpy.random.random & numpy.ndarray.astype & numpy.arange

numpy.random.random & numpy.ndarray.astype & numpy.arange

今天看到这样一句代码:

xb = np.random.random((nb, d)).astype(''float32'') #创建一个二维随机数矩阵(nb行d列)
xb[:, 0] += np.arange(nb) / 1000. #将矩阵第一列的每个数加上一个值

要理解这两句代码需要理解三个函数

1、生成随机数

numpy.random.random(size=None) 

size为None时,返回float。

size不为None时,返回numpy.ndarray。例如numpy.random.random((1,2)),返回1行2列的numpy数组

 

2、对numpy数组中每一个元素进行类型转换

numpy.ndarray.astype(dtype)

返回numpy.ndarray。例如 numpy.array([1, 2, 2.5]).astype(int),返回numpy数组 [1, 2, 2]

 

3、获取等差数列

numpy.arange([start,]stop,[step,]dtype=None)

功能类似python中自带的range()和numpy中的numpy.linspace

返回numpy数组。例如numpy.arange(3),返回numpy数组[0, 1, 2]

今天的关于python pytorch numpy DNN 线性回归模型pytorch线性回归代码的分享已经结束,谢谢您的关注,如果想了解更多关于@全体 PyTorch 开发者,OpenVINO™ 已支持整合 PyTorch 实现推理加速、docker拉取镜像时报错ERROR: failed to do request: Head https://registry-1.docker.io/v2/pytorch/pytorch/manif、Jupyter 中的 Numpy 在打印时出错(Python 版本 3.8.8):TypeError: 'numpy.ndarray' object is not callable、numpy.random.random & numpy.ndarray.astype & numpy.arange的相关知识,请在本站进行查询。

本文标签:

上一篇Numpy:np.vstack()&np.hstack() flat/flatten

下一篇NumPy 排序、查找、计数(numpy排序输出索引和数值)