99爱在线视频这里只有精品_窝窝午夜看片成人精品_日韩精品久久久毛片一区二区_亚洲一区二区久久

合肥生活安徽新聞合肥交通合肥房產生活服務合肥教育合肥招聘合肥旅游文化藝術合肥美食合肥地圖合肥社保合肥醫院企業服務合肥法律

代寫FIT3181: Deep Neural Networks
代寫FIT3181: Deep Neural Networks

時間:2024-09-03  來源:合肥網hfw.cc  作者:hfw.cc 我要糾錯


FIT3181: Deep Learning (2024)

Deep Neural Networks

Due: 11:55pm Sunday, 8 September 2024 (Sunday)

Important note: This is an individual assignment. It contributes 25% to your final mark. Read the assignment instructions carefully.

What to submit

This assignment is to be completed individually and submitted to Moodle unit site. By the due date, you are required to submit one single zip file, named  xxx_assignment01_solution.zip where  xxx is your student ID, to the corresponding Assignment (Dropbox) in Moodle. You can use Google Colab to do Assigmnent 1 but you need to save it to an   *.ipynb file to submit to the unit Moodle.

More importantly, if you use Google Colab to do this assignment, you need to first make a copy of this notebook on your Google drive .

For example, if your student ID is 12356, then gather all of your assignment solution to folder, create a zip file named 123456_assignment01_solution.zip and submit this file.

Within this zipfolder, you must submit the following files:

1. Assignment01_solution.ipynb: this is your Python notebook solution source file.

2. Assignment01_output.html: this is the output of your Python notebook solution exported in html format.

3. Any extra files or folder needed to complete your assignment (e.g., images used in your answers).

Since the notebook is quite big to load and work together, one recommended option is to split solution into three parts and work on them seperately. In that case, replace Assignment01_solution.ipynb by three notebooks: Assignment01_Part1_solution.ipynbAssignment01_Part2_solution.ipynb and Assignment01_Part3_solution.ipynb

You can run your codes on Google Colab. In this case, you have to make a copy of your Google colab notebook including the traces and progresses of model training before submitting.

Part 1: Theory and Knowledge Questions    [Total marks for this part: 30 points]

The first part of this assignment is to demonstrate your knowledge in deep learning that you have acquired from the lectures and tutorials materials. Most of the contents in this assignment are drawn from the lectures and tutorials from weeks 1 to 4. Going through these materials before attempting this part is highly   recommended.

Question 1.1 Activation function plays an important role in modern Deep NNs. For each of the activation functions below, state its output range, find its derivative (show your steps), and plot the activation fuction and its derivative

(b) Gaussian Error Linear Unit (GELU): GELU(x) = xΦ(x) where Φ(x) is the  probability cummulative function of the standard Gaussian distribution or  Φ(x) = P (X ≤ x) where X ~ N (0, 1) . In addition, the GELU activation fuction (the link for the main paper (https://arxiv.org/pdf/1606.08415v5.pdf)) has

been widely used in the state-of-the-art Vision for Transformers (e.g., here is the link for the main ViT paper (https://arxiv.org/pdf/2010.11929v2.pdf)).  [1.5 points]

Write your answer here. You can add more cells if needed.

Question 1.2: Assume that we feed a data point with a ground-truth label y = 2 to the feed-forward neural network with the  ReLU activation function as shown in the following figure 

(a) What is the numerical value of the latent presentation h1 (x)?  [1 point]

(b) What is the numerical value of the latent presentation h2 (x)?   [1 point]

(c) What is the numerical value of the logith3 (x)?   [1 point]

(d) What is the corresonding prediction probabilities p(x)?   [1 point]

(e) What is the predicted label y(^)? Is it a correct and an incorect prediction? Remind that y = 2. [1 point]

(f) What is the cross-entropy loss caused by the feed-forward neural network at (x, y)? Remind that y = 2.  [1 point]

(g) Why is the cross-entropy loss caused by the feed-forward neural network at (x, y) (i.e., CE(1y, p(x))) always non-negative? When does this CE(1y, p(x)) loss get the value 0? Note that you need to answer this question for a general pair (x, y) and a general feed-forward neural network with, for example M = 4  classes?   [1 point]

You must show both formulas and numerical results for earning full mark. Although it is optional, it is great if you show your PyTorch code for your computation.

Question 1.3:

For Question 1.3, you have two options:

·   (1) perform the forwardbackward propagationand SGD update for  one mini-batch (10 points), or

·   (2) manually implement a feed-forward neural network that can work on real tabular datasets (20 points).

You can choose either (1) or (2) to proceed.

Option 1         [Total marks for this option: 10 points]

Assume that we are constructing a multilayered feed-forward neural network for a classification problem with three classes where the model parameters will be generated randomly using your student IDThe architecture of this network is 3(Input) → 5(ELU) → 3(output) as shown in the following figure. Note that the ELU has the same formula as the one in Q1.1.

We feed a batch X with the labels Y as shown in the figure. Answer the following questions. 

You need to show both formulas, numerical results, and your PyTorch code for your computation for earning full marks.

In  [  ]:

Out[3]:

<torch._C.Generator at 0x7dc439f98810>

In  [  ]:

#Code to generate random matrices and biases for W1, b1, W2, b2

Forward propagation

(a) What is the value of h(¯)1 (x) (the pre-activation values of h1 )?  [0.5 point]

In  [  ]:

(b) What is the value of h1 (x)?   [0.5 point]

In  [  ]:

(c) What is the predicted value y(^)?  [0.5 point]

In  [  ]:

(d) Suppose that we use the cross-entropy (CE) loss. What is the value of the CE loss l incurred by the mini-batch? [0.5 point]

In  [  ]:

Backward propagation

(e) What are the derivatives   ,  , and ?  [3 points]

In  [  ]:

(f) What are the derivatives  ,  ,  , and  ?   [3 points]

In  [  ]:

SGD update

(g) Assume that we use SGD with learning rate η = 0.01 to update the model parameters. What are the values of W 2 , b2 and W 1 , b1  after updating?  [2 points]

In  [  ]:

Option 2    [Total marks for this option: 20 points]

In  [  ]:

import torch

from torch.utils.data import DataLoader

from torchvision import datasets, transforms

In Option 2, you need to implement a feed-forward NN manually using PyTorch and auto-differentiation of PyTorch. We then manually train the model on the MNIST dataset.

We first download the  MNIST dataset and preprocess it.

In  [  ]:

Each data point has dimension   [28,28] . We need to flatten it to a vector to input to our FFN.

In  [  ]:

train_dataset.data = train_data.data.view(-1, 28*28)  test_dataset.data = test_data.data.view(-1, 28*28)

train_data, train_labels = train_dataset.data, train_dataset.targets  test_data, test_labels = test_dataset.data, test_dataset.targets

print(train_data.shape, train_labels.shape)

print(test_data.shape, test_labels.shape)

In  [  ]:

train_loader = DataLoader(dataset=train_dataset, batch_size=64, shuffle=True)  test_loader = DataLoader(dataset=test_dataset, batch_size=64, shuffle=False)

Develop the feed-forward neural networks

(a) You need to develop the class  MyLinear with the following skeleton. You need to declare the weight matrix and bias of this linear layer.  [3 points]

In  [  ]:

(b) You need to develop the class  MyFFN with the following skeleton   [7 points]

In  [  ]:

In  [  ]:

myFFN = MyFFN(input_size = 28*28, num_classes = 10, hidden_sizes = [100, 100], act = torch.nn.ReLU)  myFFN.create_FFN()

print(myFFN)

(c) Write the code to evaluate the accuracy of the current  myFFN model on a data loader (e.g., train_loader or test_loader).   [2.5 points]

In  [  ]:

(c) Write the code to evaluate the loss of the current  myFFN model on a data loader (e.g., train_loader or test_loader).  [2.5 points]

In  [  ]:

def compute_loss(model, data_loader):

"""

This function computes the loss of the model on a data loader

"""

#Your code here

Train on the  MNIST data with 50 epochs using  updateSGD .

In  [  ]:

(d) Implement the function  updateSGDMomentum in the class and train the model with this optimizer in   50 epochs. You can update the corresponding function in the  MyFNN class.   [2.5 points]

In  [  ]:

(e) Implement the function  updateAdagrad in the class and train the model with this optimizer in   50 epochs. You can update the corresponding function in the MyFNN class.  [2.5 points]

In  [  ]:

Part 2: Deep Neural Networks (DNN)   [Total marks for this part: 25 points]

The second part of this assignment is to demonstrate your basis knowledge in deep learning that you have acquired from the lectures and tutorials materials. Most of the contents in this assignment are drawn from the tutorials covered from weeks 1 to 2. Going through these materials before attempting this assignment is highly recommended.

In the second part of this assignment, you are going to work with the FashionMNIST dataset for image recognition task. It has the exact same format as MNIST (70,000 grayscale images of 28 × 28 pixels each with 10 classes), but the images represent fashion items rather than handwritten digits, so each class is more  diverse, and the problem is significantly more challenging than MNIST.

In  [  ]:

import torch

from torch.utils.data import DataLoader

from torchvision import datasets, transforms torch.manual_seed(1234)

Load the Fashion MNIST using   torchvision

In  [  ]:

torch.Size([60000, 28, 28]) torch.Size([60000]) torch.Size([10000, 28, 28]) torch.Size([10000]) torch.Size([60000, 784]) torch.Size([60000])

torch.Size([10000, 784]) torch.Size([10000])

Number of training samples: 18827  Number of training samples: 16944  Number of validation samples: 1883

Question 2.1: Write the code to visualize a mini-batch in  train_loader including its images and labels.  [5 points]

In  [  ]:

####Question 2.2: Write the code for the feed-forward neural net using PyTorch   [5 points]

We now develop a feed-forward neural network with the architecture 784 → 40(ReLU) → 30(ReLU) → 10(softmax) . You can choose your own way to implement your network and an optimizer of interest. You should train model in 50 epochs and evaluate the trained model on the test set.

In  [  ]:

Question 2.3: Tuning hyper-parameters with grid search   [5 points]

Assume that you need to tune the number of neurons on the first and second hidden layers n1   ∈ {20, 40} , n2  ∈ {20, 40} and the used activation function act ∈ {sigmoid, tanh, relu} . The network has the architecture pattern 784 → n1 (act) → n2 (act) → 10(softmax) where n1 , n2 , and act are in their

grides. Write the code to tune the hyper-parameters n1 , n2 , and act. Note that you can freely choose the optimizer and learning rate of interest for this task.

In  [  ]:

 

請加QQ:99515681  郵箱:99515681@qq.com   WX:codinghelp




 

掃一掃在手機打開當前頁
  • 上一篇:COMP20003代寫、代做c/c++,Java語言編程
  • 下一篇:代寫ECON1011 Economics for Business
  • 無相關信息
    合肥生活資訊

    合肥圖文信息
    急尋熱仿真分析?代做熱仿真服務+熱設計優化
    急尋熱仿真分析?代做熱仿真服務+熱設計優化
    出評 開團工具
    出評 開團工具
    挖掘機濾芯提升發動機性能
    挖掘機濾芯提升發動機性能
    海信羅馬假日洗衣機亮相AWE  復古美學與現代科技完美結合
    海信羅馬假日洗衣機亮相AWE 復古美學與現代
    合肥機場巴士4號線
    合肥機場巴士4號線
    合肥機場巴士3號線
    合肥機場巴士3號線
    合肥機場巴士2號線
    合肥機場巴士2號線
    合肥機場巴士1號線
    合肥機場巴士1號線
  • 短信驗證碼 豆包 幣安下載 AI生圖 目錄網

    關于我們 | 打賞支持 | 廣告服務 | 聯系我們 | 網站地圖 | 免責聲明 | 幫助中心 | 友情鏈接 |

    Copyright © 2025 hfw.cc Inc. All Rights Reserved. 合肥網 版權所有
    ICP備06013414號-3 公安備 42010502001045

    99爱在线视频这里只有精品_窝窝午夜看片成人精品_日韩精品久久久毛片一区二区_亚洲一区二区久久

          一本色道久久综合亚洲精品小说| 亚洲精品裸体| 亚洲欧美日韩精品久久久久| 国产精品毛片一区二区三区| 国产精品亚洲综合| 国产一区再线| 原创国产精品91| 亚洲欧洲在线视频| 亚洲午夜精品久久久久久浪潮| 亚洲免费综合| 久久久久久久综合| 你懂的亚洲视频| 欧美性久久久| 国产精品地址| 一区二区在线观看视频| 亚洲麻豆av| 先锋影音国产一区| 欧美成人dvd在线视频| 国产精品国产三级国产普通话三级| 国产精品久久久久久五月尺| 黄色亚洲免费| 一区二区三区 在线观看视频 | 国产一区二区三区在线观看免费 | 亚洲视频免费| 久久九九免费视频| 国产精品视频一区二区高潮| 伊人久久婷婷| 国产精品日日摸夜夜添夜夜av| 国产日本欧美在线观看| 亚洲国产精品ⅴa在线观看| 这里只有精品在线播放| 久久久水蜜桃| 国产伦精品一区| 亚洲精品欧美日韩| 久久精品国产亚洲5555| 欧美日韩视频不卡| 亚洲二区视频在线| 亚洲欧美另类国产| 欧美精品观看| 一区免费观看视频| 午夜欧美视频| 欧美视频一区在线| 日韩午夜电影| 免费欧美日韩| 狠狠综合久久| 久久国产精品99精品国产| 欧美亚州一区二区三区| 99av国产精品欲麻豆| 玖玖精品视频| 国产一区香蕉久久| 欧美亚洲专区| 国产欧美在线播放| 亚洲专区欧美专区| 欧美日韩精品一本二本三本| 亚洲国产一区二区三区在线播| 欧美制服第一页| 国产伦精品一区二区| 亚洲欧美制服另类日韩| 国产精品久久久久一区二区三区共 | 亚洲精品在线看| 欧美在线影院| 韩日在线一区| 麻豆freexxxx性91精品| 伊人狠狠色丁香综合尤物| 久久国产视频网| 精品69视频一区二区三区| 欧美一级成年大片在线观看| 国产精品日韩高清| 欧美一区二区三区视频在线| 国产欧美日韩综合精品二区| 欧美专区亚洲专区| 国内外成人免费激情在线视频| 欧美在线高清视频| 极品尤物一区二区三区| 蜜臀av国产精品久久久久| 亚洲精品一区二区三区不| 欧美久色视频| 午夜视频一区在线观看| 国产一区二区三区精品欧美日韩一区二区三区 | 国产亚洲一区二区三区在线播放| 亚洲在线电影| 国内久久视频| 欧美电影美腿模特1979在线看| 亚洲欧洲一区二区在线观看| 国产精品久久9| 亚洲一二三四区| 国产喷白浆一区二区三区| 久久婷婷丁香| 亚洲经典在线看| 欧美日韩午夜剧场| 欧美一区在线视频| 最近中文字幕日韩精品 | 亚洲激情影院| 国产精品久久久久一区二区三区共| 亚洲欧美激情在线视频| 精品99一区二区| 欧美日韩国产大片| 午夜国产精品视频| 亚洲国产成人久久综合| 国产精品久久久久毛片软件| 久久精品国产精品亚洲| 亚洲精品日产精品乱码不卡| 国产精品一区免费视频| 免费看亚洲片| 亚洲欧美在线看| 亚洲精品久久久蜜桃| 国产日产高清欧美一区二区三区| 欧美日韩一区国产| 久久精品91久久香蕉加勒比 | 女女同性女同一区二区三区91| 亚洲美女视频| 国产一区二区三区在线观看免费视频| 欧美国内亚洲| 久久精品人人| 亚洲综合精品| 日韩午夜电影在线观看| 精品动漫3d一区二区三区免费版| 国产精品久久9| 欧美不卡视频一区发布| 久久久久国产免费免费| 亚洲一区二区三区在线看| 亚洲激情亚洲| 亚洲国产99| 一区二区三区我不卡| 国产精品午夜在线| 欧美性猛交xxxx免费看久久久| 麻豆国产精品va在线观看不卡| 香蕉av777xxx色综合一区| 一区二区三区久久久| 在线亚洲免费| 欧美片在线观看| 在线观看视频亚洲| 国产九色精品成人porny| 欧美日韩亚洲一区二区三区| 久热精品视频在线免费观看| 久久不射中文字幕| 午夜视频在线观看一区二区| 亚洲午夜在线观看| 在线亚洲精品| 中文在线资源观看网站视频免费不卡 | 狠狠色丁香久久婷婷综合_中| 国产精品成人播放| 国产精品扒开腿爽爽爽视频| 欧美日韩一本到| 国产精品扒开腿爽爽爽视频| 欧美日韩一本到| 欧美日韩国产影院| 欧美人与禽猛交乱配视频| 欧美日韩国产123| 欧美精品亚洲一区二区在线播放| 欧美国产一区二区| 欧美另类在线观看| 欧美日韩在线直播| 欧美手机在线视频| 国产精品免费福利| 国产精品尤物| 韩国视频理论视频久久| 在线免费观看视频一区| 亚洲国产日韩在线一区模特| 亚洲精品在线二区| 一本色道久久99精品综合| 亚洲深夜av| 欧美伊久线香蕉线新在线| 久久久久久久综合日本| 欧美第一黄色网| 欧美日韩免费精品| 国产精品一区二区三区免费观看| 国产午夜久久| 亚洲欧洲日本在线| 亚洲午夜三级在线| 久久精品国产亚洲aⅴ| 免费亚洲一区二区| 欧美日韩一区在线观看视频| 国产精品久久久久91| 国模 一区 二区 三区| 亚洲精品极品| 午夜欧美不卡精品aaaaa| 一区二区欧美日韩| 亚洲高清视频的网址| 激情视频一区| 日韩亚洲综合在线| 香蕉乱码成人久久天堂爱免费| 欧美一级精品大片| 欧美aaaaaaaa牛牛影院| 国产精品vip| 亚洲电影毛片| 亚洲欧美综合| 欧美精品日韩www.p站| 国产日韩欧美一二三区| 亚洲精品视频在线播放| 久久er99精品| 欧美亚一区二区| 91久久夜色精品国产九色| 欧美一级午夜免费电影| 欧美日韩精品系列| 激情欧美亚洲| 午夜久久黄色| 欧美视频一区在线| 精品动漫3d一区二区三区| 亚洲欧美一区二区视频|