1. 有什麼適合大一計算機專業學生免費的刷題網站
既然大一的同學選擇計算機專業,當然少不了刷題啦!但是有很多刷題網站是免費的,同學們想知道嗎?下面由我來講講吧。
這個網站收錄了很多知名互聯網公司出的演算法題目,相信大一同學很熟悉了,很多同學都在這里刷題,增強對計算機基礎知識掌握。它支持多種編程語言,如:Java、Ptthon、Ruby等。最常做的是演算法題,目前有一千多道的題目。有專門的圖文和視頻講解,方便同學們茶樓補缺。也可以在個人界面查看進展,看自己的學習情況。如果出來工作筆試中,面試官會從這里抽題。刷題過程中全部會了,那麼工作沒有什麼大問題。
以上我列舉了三個計算機免費刷題的網站,同學們看到我寫的推薦後,來收藏夾吃灰~希望同學們有時間使用這三個網站學習計算機相關知識,提高計算機專業能力,祝你們學有所成!
2. 計算機網路安全技術試題
1. 最有效的保護E-mail的方法是使用加密簽字,如( B ),來驗證E-mail信息。通過驗證E-mail信息,可以保證信息確實來自發信人,並保證在傳輸過程沒有被修改。
A. Diffie-Hellman
B. Pretty Good Privacy(PGP)
C. Key Distribution Center(KDC)
D. IDEA
2. 黑客要想控制某些用戶,需要把木馬程序安裝到用戶的機器中,實際上安裝的是(B)
A. 木馬的控制端程序
B. 木馬的伺服器端程序
C. 不用安裝
D. 控制端、服務端程序都必需安裝
3. 下列不屬於包過濾檢查的是(D)
A. 源地址和目標地址
B. 源埠和目標埠
C. 協議
D. 數據包的內容
4. 代理服務作為防火牆技術主要在OSI的哪一層實現(A)
A. 數據鏈路層
B. 網路層
C. 表示層
D. 應用層
5. 加密在網路上的作用就是防止有價值的信息在網上被( D本題答案說法不一個人認為是D)。
A. 攔截和破壞
B. 攔截和竊取
C. 篡改和損壞
D. 篡改和竊取
6. 按照可信計算機評估標准,安全等級滿足C2級要求的操作系統是(D)
A. DOS
B. Windows XP
C. Windows NT
D. Unix
7. 下面關於口令的安全描述中錯誤的是(B和D說的都不是很正確。。)`
A. 口令要定期更換
B. 口令越長越安全
C. 容易記憶的口令不安全
D. 口令中使用的字元越多越不容易被猜中
8. 不對稱加密通信中的用戶認證是通過(B)確定的
A. 數字簽名
B. 數字證書
C. 消息文摘
D. 公私鑰關系
9. 對於IP欺騙攻擊,過濾路由器不能防範的是( D ) 。
A.偽裝成內部主機的外部IP欺騙
B.外部主機的IP欺騙
C.偽裝成外部可信任主機的IP欺騙
D.內部主機對外部網路的IP地址欺騙
10.RSA加密演算法不具有的優點是(D)
A.可藉助CA中心發放密鑰,確保密鑰發放的安全方便
B.可進行用戶認證
C.可進行信息認證
D.運行速度快,可用於大批量數據加密
11.PGP加密軟體採用的加密演算法(C)
A.DES
B.RSA
C.背包演算法
D.IDEA
12.以下說法正確的是(D)
A.木馬不像病毒那樣有破壞性
B.木馬不像病毒那樣能夠自我復制
C.木馬不像病毒那樣是獨立運行的程序
D.木馬與病毒都是獨立運行的程序
13.使用防病毒軟體時,一般要求用戶每隔2周進行升級,這樣做的目的是(C)
A.對付最新的病毒,因此需要下載最新的程序
B.程序中有錯誤,所以要不斷升級,消除程序中的BUG
C.新的病毒在不斷出現,因此需要用及時更新病毒的特徵碼資料庫
D.以上說法的都不對
14.防火牆的安全性角度,最好的防火牆結構類型是(D)
A.路由器型
B.伺服器型
C.屏蔽主機結構
D.屏蔽子網結構
剩下的由高人來補。
3. 計算機視覺演算法工程師常見面試題1
參考: https://www.hu.com/column/c_1170719557072326656
反卷積也稱為轉置卷積,如果用矩陣乘法實現卷積操作,將卷積核平鋪為矩陣,則轉置卷積在正向計算時左乘這個矩陣的轉置WT,在反向傳播是左乘W,與卷積操作剛好相反,需要注意的是,反卷積不是卷積的逆運算。
[知乎問題+caffe實現]
實現上采樣;近似重構輸入圖像,卷積層可視化。
只要激活函數選擇得當,神經元的數量足夠,至少有一個隱含層的神經網路可以 逼近閉區間上任意一個連續函數到任意指定的精度。
判別模型,直接輸出類別標簽,或者輸出類後驗概率p(y|x)
[ https://www.hu.com/question/268906476]
[ https://zhuanlan.hu.com/p/40024110]
[ https://zhuanlan.hu.com/p/159189617]
BN是在 batch這個維度上進行歸一化,GN是計算channel方向每個group的均值方差.
檢測結果與 Ground Truth 的交集比上它們的並集,即為檢測的准確率 IoU
內存/顯存佔用;模型收斂速度等
Hessian矩陣是n*n, 在高維情況下這個矩陣非常大,計算和存儲都是問題。
mini-batch太小會導致收斂變慢,太大容易陷入sharp minima,泛化性不好。
可以把dropout看成是 一種ensemble方法,每次做完dropout相當於從原網路中找到一個更瘦的網路。
pooling操作雖然能增大感受野,但是會丟失一些信息。空洞卷積在卷積核中插入權重為0的值,因此每次卷積中會skip掉一些像素點;
空洞卷積增大了卷積輸出每個點的感受野,並且不像pooling會丟失信息,在圖像需要全局信息或者需要較長sequence依賴的語音序列問題上有著較廣泛的應用。
表達式為:
使用BN的原因是網路訓練中每一層不斷改變的參數會導致後續每一層輸入的分布發生變化,而學習的過程又要使每一層去適應輸入的分布,因此不得不降低網路的學習率,並且要小心得初始化(internal covariant shift)
如果僅通過歸一化方法使得數據具有零均值和單位方差,則會降低層的表達能力(如使用Sigmoid函數時,只使用線性區域)
BN的具體過程(注意第三個公式中分母要加上epsilon)
最好的解釋是通過1 * 1卷積核能實現多個channel間的解耦合,解耦cross-channel correlation和spatial correlation。
【但是因為解耦不徹底,因此後續有了mobile net的組卷積方式和shuffle net組卷積方式】
由於 1×1 並不會改變 height 和 width,改變通道的第一個最直觀的結果,就是可以將原本的數據量進行增加或者減少。改變的只是 height × width × channels 中的 channels 這一個維度的大小而已。
1*1卷積核,可以在保持feature map尺度不變的(即不損失解析度)的前提下大幅增加非線性特性(利用後接的非線性激活函數),把網路做的很deep。
備註:一個filter對應卷積後得到一個feature map,不同的filter(不同的weight和bias),卷積以後得到不同的feature map,提取不同的特徵,得到對應的specialized neuron。
例子:使用1x1卷積核,實現降維和升維的操作其實就是channel間信息的線性組合變化,3x3,64channels的卷積核後面添加一個1x1,28channels的卷積核,就變成了3x3,28channels的卷積核,原來的64個channels就可以理解為跨通道線性組合變成了28channels,這就是通道間的信息交互
注意:只是在channel維度上做線性組合,W和H上是共享權值的sliding window
並不能說明這個模型無效導致模型不收斂的原因可能有
A. 在實際場景下,應盡量使用ADAM,避免使用SGD
B. 同樣的初始學習率情況下,ADAM的收斂速度總是快於SGD方法
C. 相同超參數數量情況下,比起自適應的學習率調整方式,SGD加手動調節通常會取得更好效果
D. 同樣的初始學習率情況下,ADAM比SGD容易過擬合
A.保證每一層的感受野不變,網路深度加深,使得網路的精度更高
B.使得每一層的感受野增大,學習小特徵的能力變大
C.有效提取高層語義信息,且對高層語義進行加工,有效提高網路准確度
D.利用該結構有效減輕網路的權重
A.計算簡單
B.非線性
C.具有飽和區
D.幾乎處處可微
【relu函數在0處是不可微的。】
A.Adam的收斂速度比RMSprop慢
B.相比於SGD或RMSprop等優化器,Adam的收斂效果是最好的
C.對於輕量級神經網路,使用Adam比使用RMSprop更合適
D.相比於Adam或RMSprop等優化器,SGD的收斂效果是最好的
【SGD通常訓練時間更長,容易陷入鞍點,但是在好的初始化和學習率調度方案的情況下,結果更可靠。如果在意更快的收斂,並且需要訓練較深較復雜的網路時,推薦使用學習率自適應的優化方法。】
A.使用ReLU做為激活函數,可有效地防止梯度爆炸
B.使用Sigmoid做為激活函數,較容易出現梯度消失
C.使用Batch Normalization層,可有效的防止梯度爆炸
D.使用參數weight decay,在一程度上可防止模型過擬合
對結果存疑。認為二者皆可防止。
A.SGD
B.FTRL
C.RMSProp
D.L-BFGS
L-BFGS(Limited-memory BFGS,內存受限擬牛頓法)方法:
所有的數據都會參與訓練,演算法融入方差歸一化和均值歸一化。大數據集訓練DNN,容易參數量過大 (牛頓法的進化版本,尋找更好的優化方向,減少迭代輪數)從LBFGS演算法的流程來看,其整個的核心的就是如何快速計算一個Hesse的近似:重點一是近似,所以有了LBFGS演算法中使用前m個近似下降方向進行迭代的計算過程;重點二是快速,這個體現在不用保存Hesse矩陣上,只需要使用一個保存後的一階導數序列就可以完成,因此不需要大量的存儲,從而節省了計算資源;重點三,是在推導中使用秩二校正構造了一個正定矩陣,即便這個矩陣不是最優的下降方向,但至少可以保證函數下降。
FTRL(Follow-the-regularized-Leader)是一種適用於處理超大規模數據的,含大量稀疏特徵的在線學習的常見優化演算法,方便實用,而且效果很好,常用於更新在線的CTR預估模型;FTRL在處理帶非光滑正則項(如L1正則)的凸優化問題上表現非常出色,不僅可以通過L1正則控制模型的稀疏度,而且收斂速度快;
A.LSTM在一定程度上解決了傳統RNN梯度消失或梯度爆炸的問題
B.CNN相比於全連接的優勢之一是模型復雜度低,緩解過擬合
C.只要參數設置合理,深度學習的效果至少應優於隨機演算法
D.隨機梯度下降法可以緩解網路訓練過程中陷入鞍點的問題
實際上,現在有很多針對小目標的措施和改良,如下:
最常見的是Upsample來Rezie網路輸入圖像的大小;
用dilated/astrous等這類特殊的卷積來提高檢測器對解析度的敏感度;(空洞卷積是針對圖像語義分割問題中下采樣會降低圖像解析度、丟失信息而提出的一種卷積思路。利用添加空洞擴大感受野,讓原本3 x3的卷積核,在相同參數量和計算量下擁有5x5(dilated rate =2)或者更大的感受野,從而無需下采樣。在保持參數個數不變的情況下增大了卷積核的感受野)
有比較直接的在淺層和深層的Feature Map上直接各自獨立做預測的,這個就是我們常說的尺度問題。
用FPN這種把淺層特徵和深層特徵融合的,或者最後在預測的時候,用淺層特徵和深層特徵一起預測;
SNIP(Scale Normalization for Image Pyramids)主要思路:
在訓練和反向傳播更新參數時,只考慮那些在指定的尺度范圍內的目標,由此提出了一種特別的多尺度訓練方法。
4. 計算機網路題
(1) 將IP 地址空間202.118.1.0/24 劃分為2 個子網,可以從主機位拿出1 位來劃分子網,剩餘的7 位用來表示主機號(27-2>120,滿足要求),所以兩個子網的子網掩碼都為:1111111111111111 11111111 10000000,即255.255.255.128;所劃分的兩個子網的網路地址分別為:
202.118.1.00000000 和202.118.1.10000000(為了理解方便我將最後一個位元組用二進製表示,這樣可以看清楚子網的劃分過程),即202.118.1. 0 和202.118.1.128。
綜上,劃分結果為:
子網1:202.118.1.0,子網掩碼為:255.255.255.128;
子網2:202.118.1.128,子網掩碼為:255.255.255.128。
或者寫成:
子網1:202.118.1.0/25;
子網2:202.118.1.128/25。
(2) 下面分2 種情況:
(a) 假設子網1 分配給區域網1,子網2 分配給區域網2;路由器R1 到區域網1 和區域網
2 是直接交付的,所以下一跳IP 地址可以不寫(打一橫即可),介面分別是從E1、E2轉發出去;路由器R1 到域名伺服器是屬於特定的路由,所以子網掩碼應該為255.255.255.255(只有和全1 的子網掩碼相與之後才能100%保證和目的網路地址一樣,從而選擇該特定路由),而路由器R1 到域名伺服器應該通過介面L0 轉發出去,下一跳IP 地址應該是路由器R2 的L0 介面,即IP 地址為202.118.2.2;路由器R1 到互聯網屬於默認路由(記住就好,課本127 頁),而前面我們已經提醒過,默認路由的目的網路IP 地址和子
網掩碼都是0.0.0.0,而路由器R1 到互聯網應該通過介面L0 轉發出去,下一跳IP 地址應該是路由器R2 的L0 介面,即IP 地址為202.118.2.2,故詳細答案見下表:
目的網路地址子網掩碼下一跳IP 地址介面
202.118.1.0 255.255.255.128 — E1
202.118.1.128 255.255.255.128 — E2
202.118.3.2 255.255.255.255 202.118.2.2 L0
0.0.0.0 0.0.0.0 202.118.2.2 L0
(b) 假設子網1 分配給區域網2,子網2 分配給區域網1;中間過程幾乎一樣,答案請看下錶:
目的網路地址子網掩碼下一跳IP 地址介面
202.118.1.128 255.255.255.128 — E1
202.118.1.0 255.255.255.128 — E2
202.118.3.2 255.255.255.255 202.118.2.2 L0
0.0.0.0 0.0.0.0 202.118.2.2 L0
(3) 首先將202.118.1.0/25 與202.118.1.128/25 聚合,聚合的地址為:202.118.1.0/24(只有前面24 位一樣),顯然子網掩碼為:255.255.255.0,故路由器R2 經過介面L0,下一跳為路由器R1 的介面L0,IP 地址為:202.118.2.1,所以路由表項如下表所示:
目的網路地址子網掩碼下一跳IP 地址介面
202.118.1.0 255.255.255.0 202.118.2.1 L0
5. 力扣刷題有意義嗎
力扣刷題有意義,不僅可以熟能生巧,還可以見識到更多的新東西和不熟悉的,加強自己的印象和學習。
力扣(LeetCode)官網收錄了許多互聯網公司的演算法題目,一度被稱為刷題神器。這里我們就來介紹下如何使用力扣(LeetCode)網站。由於力扣(LeetCode)本身也處於不斷迭代之後。因此本文部分內容有可能在將來會變得不再適用。
以力扣國際站為例,其官網給出了四個分類:Algorithms、Database、Shell和Concurrency,分別表示演算法題、資料庫題、Shell和並發題。
第一個就是我們所需要刷的演算法題。並發是2019年才添加的新的模塊。點開Algorithms後,我們可以看到一個題目的列表,每個題目都有一個唯一的序號。力扣(LeetCode)目前有1000多道題目。
並且一直持續更新,其中有一些是帶鎖的,需要會員才能查看。後面的接受率(Acceptance)表示提交的正確率,Difficulty表示難易程度。難易程度有三個級別,分別是Easy、Medium和Hard。
Easy通常不需要太多思考和也不會有復雜的細節,比較特別適合新手或者拿來熱身。Medium級別就會有些難度,一般都會涉及到經典的演算法,需要一定的思考。Hard級別是最難的,有些時候是演算法本身的難度。
有些時候特別需要你考慮到各種細節。❝這里分享一個小技巧給大家。衡量一道題目難不難除了看難度之外,還可以看下接受率,接受率越低代表題目越難,這個指標有時候比難度更靠譜。❞你可以對題目進行篩選和排序。如果我們只想要找某一類型的題或者某個公司的題庫,可以通過Tags或Company來篩選。