Özellik ölçekleme: standardizasyon, normalizasyon ve robust scaler farkları
Özellik Ölçekleme Yöntemleri
Özellik ölçekleme, makine öğreniminde model performansını artırmak için verilerin belirli bir ölçeğe getirilmesidir. En yaygın üç yöntem standardizasyon, normalizasyon ve robust scaler\'dır.
Standardizasyon
Standardizasyon, verilerin ortalamasını sıfıra ve standart sapmasını bir birime getirme işlemidir. Aşağıdaki gibi hesaplanır:
- Yeni değer = (X - ortalama) / standart sapma
Bu yöntem, verilerin normal dağılıma yakın olduğu varsayımına dayanır.
Normalizasyon
Normalizasyon, verileri belirli bir aralık (genellikle 0 ile 1) içinde ölçekleme işlemidir. Hesaplama şu şekildedir:
- Yeni değer = (X - min) / (max - min)
Bu yöntem, verilerin kenar etkilerini azaltmak için kullanılır.
Robust Scaler
Robust scaler, verilerin medyanını ve çeyrek açıklığını kullanarak ölçekleme yapar. Bu yöntem, aşırı değerlerden etkilenmez.
- Yeni değer = (X - medyan) / (çeyrek açıklığı)
Aşırı değerlerin olduğu durumlarda en etkili seçenektir.
Özet
- Standardizasyon: Normal dağılım varsayımına dayanır; ortalama ve standart sapma kullanır.
- Normalizasyon: 0-1 aralığına ölçekleme; min ve max değerleri kullanır.
- Robust Scaler: Aşırı değerlere dayanıklıdır; medyan ve çeyrek açıklığı kullanır.
Aynı kategoriden
- Ürün ölçümleme: kuzey yıldızı metriği (NSM) ve huni analizi
- Özellik deposu (feature store) nedir, ne işe yarar?
- Veri ön işleme aşamasında eksik verilerin farklı yöntemlerle tamamlanmasının model başarısı üzerindeki etkileri nasıl karşılaştırılır
- Veri mimarisi nasıl tasarlanır?
- Veri görselleştirme neden önemlidir?
- Python veri bilimi için neden tercih edilir?
- İstatistiksel modelleme nedir?
- Ortalama, medyan ve mod nedir?
- SVM nedir ve hangi durumlarda kullanılır?
- Veri ön işleme tekniklerinin makine öğrenmesi modellerinin başarısı üzerindeki etkileri nasıl değerlendirilir
- Seaborn kütüphanesi ne işe yarar?
- Veri biliminde denetimli ve denetimsiz öğrenme yöntemlerinin avantajları ve sınırlamaları nelerdir?
- Veri bilimi projelerinde veri ön işleme adımının model başarısına etkisi nasıl değerlendirilir
- Veri ürünlerinin OKR ve KPI’larını nasıl belirlersiniz?
- Görüntü sınıflandırmada CNN temelleri: konvolüsyon ve havuzlama
- Büyük veri mühendisliği nedir?
- Veri bilimi projelerinde veri ön işleme sürecinin model doğruluğu üzerindeki etkileri nasıl analiz edilir ve hangi yöntemler daha etkilidir?
- Futbolcuların performanslarını optimize etmek için hangi veri analiz yöntemleri kullanılır?
- Öğrenme eğrileri ile veri yeterliliği ve model kapasitesi teşhisi
- Veri analizinde kullanılan temel istatistiksel kavramlar nelerdir?
