【深度学习】Coursera的TensorFlow课程练习题精华部分
大家好,這次給大家翻譯的是來自 Coursera,由 deeplearning.ai 提供的 TensorFlow in Practice 的課程系列的QUIZ部分
本文來源:www.kesci.com
該系列課程共分為4個專項
一、人工智能、機器學習和深度學習的TensorFlow簡介
二、TensorFlow中的卷積神經網絡
三、TensorFlow中的自然語言處理
四、序列、時間序列與預測
原教程鏈接在此:TensorFlow in Practice 專項課程
教大家在機器學習的不同方向如何應用TensorFlow。課程前7天是免費的,之后按月收費,所以如果我學得夠快,月費就追不上我嘿嘿嘿。
話說回這次翻譯的QUIZ部分,個人感覺偏基礎,問了很多函數調用的細節,夾雜一些很迷的問題比如“Fashion MNIST數據集中有多少張圖片?”。但總體而言適合新手上路查漏補缺。
由于這次題目數量比較多,知乎版本進行了刪減。主要刪去了一些蜜汁問題,以及隨機選中的一些幸運兒,完整版請移步和鯨社區(閱讀原文)
114題精選
第 4 題
什么是Dense?
A.質量除以體積
B.單個神經元
C.一層連接的神經元
D.一層不連接的神經元
第 5 題
Loss函數是用來做什么的?
A.生成預測結果
B.決定是否停止神經網絡的訓練
C.評價現有的預測
D.評判你猜對沒
第 6 題
優化器是用來做什么的
A.生成更新的優化的預測
B.決定是否停止神經網絡的訓練
C.評價現有的預測
D.找出如何有效地編譯代碼
第 7 題
什么是Convergence?
A.下一部《星球大戰》電影中的壞蛋
B.損失急劇增加
C.接近正確答案的過程
D.AI的編程API
第 8 題
model.fit是用來做什么的?
A.它訓練神經網絡將一組值轉換為另一組
B.它使模型可以記憶
C.優化一個已經存在的模型
D.它確定您的運動是否對身體有益
上5題答案
4.C 5.C 6.A 7.C 8.A
第 17 題
什么是卷積?
A.縮小圖像的技術
B.放大圖像的技術
C.隔離圖像特征的技術
D.過濾掉不需要的圖像的技術、
第 18 題
什么是池化?
A.隔離圖像特征的技術
B.一種在保持特征的同時減少圖像信息的技術
C.一種使圖像更清晰的技術
D.組合圖片的技術
第 19 題
卷積如何改善圖像識別?
A.它們使圖像變小
B.它們使圖像處理更快
C.它們使圖像更清晰
D.它們隔離圖像中的特征
第 20 題
在28x28的圖像上使用3x3的過濾器后,輸出將是多少?
A.31x31
B.25x25
C.28x28
D.26x26
第 22 題
在神經網絡一開始應用卷積層將使訓練:
A.更快
B.這取決于許多因素。它可能會使您的訓練更快或更慢,并且設計不良的卷積層可能甚至比普通的DNN還低效!
C.更慢
D.持平
上5題答案
17.C 18.B 19.D 20.D 22.B
第 26 題
當我們將input_shape指定為(300,300,3)時,這意味著什么?
A.將有300匹馬和300名人類,分3批
B.將有300張圖片,每個尺寸300,分3批
C.每個圖像將為300x300像素,有3個通道
D.每個圖像將為300x300像素,并且應該有3個卷積層
第 29 題
縮小圖像尺寸后,訓練結果有所不同。為什么?
A.圖片的信息變少了
B.我們刪除了一些卷積以處理較小的圖像
C.圖像中壓縮了更多信息
D.訓練更快
第 33 題
如果我想查看訓練的歷史記錄,該如何訪問?
A.創建一個變量“history”,并將其分配給model.t或model.t_generator的返回值
B.將參數“ history = true”傳遞給model.t
C.下載模型并檢查
D.使用model.t_generator
第 35 題
當檢查數據時,損失在2個周期后穩定在大約0.75,但在15個周期后精度上升到接近1.0。這代表了什么?
A.2周期后的訓練是沒有意義的,因為我們過擬合了驗證數據
B.2周期后的訓練是沒有意義的,因為我們過擬合了訓練數據
C.更大的訓練集將使我們具有更好的驗證準確性
D.更大的驗證集將使我們具有更好的訓練準確性
第 37 題
為什么在較小的數據集上更容易出現過擬合現象?
A.因為在較小的數據集中,您的驗證數據更有可能和訓練數據類似
B.因為沒有足夠的數據來激活所有卷積或神經元
C.因為使用較少的數據,訓練會更快地進行,并且某些功能可能會丟失
D.因為在訓練過程中遇到所有可能特征的可能性較小
上5題答案
26.C 29.A 33.A B 35 37.D
第 39 題
如果我的訓練數據中只有面朝左的人,但我想對面朝右的人進行分類,我該如何避免過擬合?
A.在Y軸上使用“ ip_vertical”參數
B.使用“ horizontal_ip”參數
C.使用“ ip”參數
D.使用“ ip”參數并設置“水平”
第 40 題
使用增強訓練時,您注意到訓練會慢一些。為什么?
A.因為有更多數據需要訓練
B.因為擴充后的數據更大
C.因為圖像處理需要周期
D.因為訓練會犯更多錯誤
第 42 題
將Image Augmentation與ImageDataGenerator一起使用時,磁盤上的原始圖像數據會發生什么情況?
A.它會被覆蓋,因此請務必進行備份
B.制作副本并對該副本進行擴充
C.沒什么,所有擴充都在內存中完成
D.它被刪除
第 43 題
圖像增強如何幫助解決過擬合?
A.它減慢了訓練過程
B.它操縱訓練集,為圖像中的特征生成更多場景
C.它操縱驗證集為圖像中的特征生成更多場景
D.通過圖像處理技術找到特征,自動將特征擬合到圖像
第 45 題
使用“圖像增強”有效地模擬具有較大數據集的訓練
A.不對
B.對
上5題答案
39.B 40.C 42.C 43.B 45.B
第 47 題
為什么遷移學習有用?
A.因為我可以使用原始訓練集中的所有數據
B.因為我可以使用原始驗證集中的所有數據
C.因為我可以使用從大型數據集中學習到的,我可能無法獲得的特征
D.因為我可以使用可能無法訪問的大型數據集中的驗證數據
第 49 題
使用遷移學習時,如何更改模型可以分類的數量?(即處理的原始模型可以處理1000個分類,但您只處理2個分類)
A.忽略所有高于您的類別(即,2之后的類都算2)
B.使用所有類,但將其權重設置為0
C.當您在網絡底部添加DNN時,用您所擁有的類數來指定輸出層
D.使用dropout消除不必要的類
第 50 題
您可以在遷移學習模型中使用圖像增強嗎?
A.否,因為您正在使用預設功能
B.是的,因為您要在網絡底部添加新層,并且能在訓練這些層的時候使用圖像增強
第 51 題
為何dropout有助于避免過擬合?
A.因為鄰居神經元的權重可能相似,因此可能會影響最終訓練的準確性
B.減少神經元可加快訓練速度
第 52 題
dropout設置過高會有什么現象?
A.網絡將失去專業性,從而導致學習效率低下或效率低下,從而降低準確性
B.訓練時間將增加,這是因為dropout高需要額外的計算
上5題答案
47.C 49.C 50.B 51.A 52.A
第 59 題
如果您沒有在詞匯表中使用token,那么編碼時會發生什么?
A.該單詞未編碼,序列化結束
B.這個詞被最常見的token代替
C.這個單詞沒有經過編碼,因此會被跳過
D.該單詞未編碼,序列中被替換為0
第 60 題
如果您有許多不同長度的序列,當將它們輸入到神經網絡時,如何確保它們被理解?
A.使用token生成器的pad_sequences方法確保它們的長度都相同
B.使用tensorflow.keras.preprocessing.sequence命名空間中的pad_sequences對象
C.指定神經網絡的輸入層以期望dynamic_length有不同大小
D.使用pad_sequences屬性在神經網絡的輸入層上對其進行處理
第 61 題
如果您有許多長度不同的序列,并在其上調用pad_sequences,默認結果是什么?
A.沒什么,他們會保持不變
B.通過將零添加到較短序列的開頭,它們將填充到最長序列的長度
C.它們會被裁剪到最短序列的長度
D.通過在較短的序列末尾添加零,可以將它們填充到最長序列的長度中
第 62 題
在填充序列時,如果您希望填充位于序列的末尾,該如何做?
A.調用pad_sequences對象的padding方法,傳遞“ after”
B.初始化時將padding ='post'傳遞至pad_sequences
C.調用pad_sequences對象的padding方法,傳遞“ post”
D.初始化時將padding =“ after”傳遞給pad_sequences
第 66 題
Embedding維數是什么?
A.它是表示單詞編碼的向量的維數
B.它是單詞中字母的數量,表示編碼的大小
C.是嵌入中要編碼的單詞數
D.它是對語料庫中的每個單詞進行編碼所需的維數
上5題答案
59.C 60.B 61.B 62.B 66.A
第 71 題
為什么順序在確定語言的語義時有很大的影響?
A.并不
B.因為單詞出現的順序決定了它們的含義
C.因為單詞順序無關緊要
D.因為單詞出現的順序決定了它們對句子含義的影響
第 73 題
當句子中相互限定的單詞不一定彼此并排時,LSTM如何幫助理解含義?
A.他們將所有單詞加載到單元格狀態
B.并沒幫助
C.他們隨機打亂單詞
D.較早單詞的值可以通過單元狀態傳遞給較晚單詞
第 78 題
避免NLP數據集過度擬合的最佳方法是什么?
A.LSTMs
B.GRUs
C.Conv1D
D.以上都不
第 79 題
當預測單詞產生詩歌時,預測的單詞越多,最終產生亂碼的可能性就越大。為什么?
A.因為預測的可能性增加,因此總體上增加了
B.不會,亂碼的可能性不會改變
C.創建的單詞越多,每個單詞與現有短語匹配的概率下降
D.因為您更有可能擊中不在訓練集中的單詞
第 80 題
基于單詞的訓練而不是基于字符的生成的主要缺點是什么?
A.基于字符的生成更準確,因為要預測的字符較少
B.基于單詞的生成更加準確,因為可以從中提取更大的單詞
C.沒有主要缺點,進行基于單詞的訓練總是更好
D.由于典型語料庫中的單詞比字符多得多,因此占用大量內存
上5題答案
71.D 73.D 78.D 79.C 80.D
第 86 題
什么是趨勢?
A.數據的總體方向,與方向無關
B.數據的整體一致向下方向
C.數據的總體統一方向
D.數據整體向上一致
第 87 題
在時間序列的背景下,什么是噪聲?
A.時間序列數據的不可預測的變化
B.沒有趨勢的數據
C.聲波形成一個時間序列
D.沒有季節性的數據
第 88 題
什么是自相關?
A.數據遵循可預測的形狀,即使比例不同
B.季節性自動排列的數據
C.自動按趨勢排列的數據
D.沒有噪音的數據
第 89 題
什么是非平穩時間序列?
A.具有建設性事件形成趨勢和季節性
B.一個具有破壞性事件,突破趨勢和季節性的事件
C.在所有季節都一致的一種
D.一個季節性移動
第 90 題
什么是窗口數據集?
A.沒有這種東西
B.時間序列與固定形狀對齊
C.時間序列的固定大小一個子集
D.一系列時間序列的子集
上5題答案
86.A 87.A 88.A 89.B 90.C
第 101 題
神經網絡中的Lambda層有什么作用?
A.允許您在訓練時執行任意代碼
B.神經網絡中沒有Lambda層
C.更改輸入或輸出數據的形狀
D.暫停訓練而無需回調
第 104 題
淺顯的RNN和LSTM之間的主要區別是什么
A.LSTM具有單個輸出,RNN具有多個輸出
B.除了H輸出外,LSTM的單元狀態貫穿所有單元
C.除了H輸出外,RNN的單元狀態貫穿所有單元
D.LSTM具有多個輸出,RNN具有單個輸出
第 106 題
如果用這兩層定義一個神經網絡會怎樣?
tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(32)), tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(32)), tf.keras.layers.Dense(1),A.您的模型將編譯并正確運行
B.您的模型將失敗,因為在第一個LSTM層之后需要return_sequences = True
C.您的模型將失敗,因為在每個LSTM層之后都需要return_sequences = True
D.您的模型將失敗,因為每個LSTM中具有相同數量的單元
第 107 題
如何為模型添加一維卷積以預測時間序列數據?
A.使用1DConvolution類型
B.使用Conv1D類型
C.使用Convolution1D類型
D.使用1DConv類型
第 114 題
為什么MAE是較好的衡量時間序列預測準確性的方法?
A.它偏向于小錯誤
B.它不會像平方誤差那樣嚴重懲罰較大的誤差
C.它懲罰更大的錯誤
D.它只計算正錯誤
上5題答案
101.A 104.B 106.B 107.B 114.B
完整版在和鯨社區:
www.kesci.com(閱讀原文)
往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習及深度學習筆記等資料打印機器學習在線手冊深度學習筆記專輯AI基礎下載(pdf更新到25集)機器學習的數學基礎專輯獲取一折本站知識星球優惠券,復制鏈接直接打開:https://t.zsxq.com/yFQV7am本站qq群1003271085,加入微信群請掃碼喜歡文章,點個在看總結
以上是生活随笔為你收集整理的【深度学习】Coursera的TensorFlow课程练习题精华部分的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 2020年6月学术会议变动汇总
- 下一篇: 周志华《机器学习》课后习题(第五章):神