說(shuō)明
1、通過(guò)特征本身的方差來(lái)篩選特征。特征的方差越小,特征的變化越不明顯。
2、變化越不明顯的特征對(duì)我們區(qū)分標(biāo)簽沒(méi)有太大作用,因此應(yīng)該消除這些特征。
實(shí)例
def variance_demo():
"""
過(guò)濾低方差特征
:return:
"""
# 1. 獲取數(shù)據(jù)
data = pd.read_csv('factor_returns.csv')
data = data.iloc[:, 1:-2]
print('data:\n', data)
# 2. 實(shí)例化一個(gè)轉(zhuǎn)換器類(lèi)
transfer = VarianceThreshold(threshold=10)
# 3. 調(diào)用fit_transform()
data_new = transfer.fit_transform(data)
print('data_new:\n', data_new, data_new.shape)
return None
知識(shí)點(diǎn)擴(kuò)充:
方差過(guò)濾法
VarianceThreshold 是特征選擇的一個(gè)簡(jiǎn)單基本方法,其原理在于–底方差的特征的預(yù)測(cè)效果往往不好。而VarianceThreshold會(huì)移除所有那些方差不滿足一些閾值的特征。默認(rèn)情況下,它將會(huì)移除所有的零方差特征,即那些在所有的樣本上的取值均不變的特征。
sklearn中的VarianceThreshold類(lèi)中重要參數(shù) threshold(方差的閾值),表示刪除所有方差小于threshold的特征 #不填默認(rèn)為0——?jiǎng)h除所有記錄相同的特征。
import pandas as pd
import numpy as np
np.random.seed(1) #設(shè)置隨機(jī)種子,實(shí)現(xiàn)每次生成的隨機(jī)數(shù)矩陣都一樣
a= np.random.randint(0, 200,10)
b= np.random.randint(0, 200,10)
c= np.random.randint(0, 200,10)
d= [9,9,9,9,9,9,9,9,9,9]
data=pd.DataFrame({"A" : a,"B" : b,"C" : c,"D" : d})
data
from sklearn.feature_selection import VarianceThreshold
sel_model = VarianceThreshold(threshold = 0)
#刪除不合格特征之后的新矩陣
sel_model.fit_transform(data)
到此這篇關(guān)于Python方差特征過(guò)濾的實(shí)例分析的文章就介紹到這了,更多相關(guān)Python方差特征過(guò)濾的實(shí)現(xiàn)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!