BAT機器學習面試1000題(466~470題)
466、以下哪些方法不可以直接來對文本分類?
A、Kmeans
B、決策樹
C、支持向量機
D、KNN
正確答案是:A
解析:
Kmeans是聚類方法,典型的無監督學習方法。分類是監督學習方法,BCD都是常見的分類方法。
467、已知一組數據的協方差矩陣P,下面關於主分量說法錯誤的是()
A、主分量分析的最佳準則是對一組數據進行按一組正交基分解, 在只取相同數量分量的條件下,以均方誤差計算截尾誤差最小
B、在經主分量分解後,協方差矩陣成爲對角矩陣
C、主分量分析就是K-L變換
D、主分量是通過求協方差矩陣的特徵值得到
正確答案是:C
解析:
K-L變換與PCA變換是不同的概念,PCA的變換矩陣是協方差矩陣,K-L變換的變換矩陣可以有很多種(二階矩陣、協方差矩陣、總類內離散度矩陣等等)。當K-L變換矩陣爲協方差矩陣時,等同於PCA。
解析參考自:@BlackEyes_SGC
468、關於logit 迴歸和SVM 不正確的是( )
A、Logit迴歸本質上是一種根據樣本對權值進行極大似然估計的方法,而後驗概率正比於先驗概率和似然函數的乘積。logit僅僅是最大化似然函數,並沒有最大化後驗概率,更談不上最小化後驗概率。
B、Logit迴歸的輸出就是樣本屬於正類別的幾率,可以計算出概率。
C、SVM的目標是找到使得訓練數據儘可能分開且分類間隔最大的超平面,應該屬於結構風險最小化。
D、SVM可以通過正則化係數控制模型的複雜度,避免過擬合。
正確答案是:A
解析:
Logit迴歸目標函數是最小化後驗概率,Logit迴歸可以用於預測事件發生概率的大小,SVM目標是結構風險最小化,SVM可以有效避免模型過擬合。
469、以下不屬於影響聚類算法結果的主要因素有()
A、已知類別的樣本質量
B、分類準則
C、特徵選取
D、模式相似性測度
正確答案是:A
解析:
都已知了,就不必再進行聚類了。
470、模式識別中,不屬於馬式距離較之於歐式距離的優點的是( )
A、平移不變性
B、尺度不變性
C、考慮了模式的分佈
正確答案是:A
點擊下方“瞭解更多”,獲取更多機器學習相關知識~
查看原文 >>