benim için çok önemli işe alınıp alınmamamı etkileyebilicek bir soru soracağım, bazı fikirlerim var ancak doğru yöntem olduğunu düşünmüyorum o yüzden bir umut şansımı deneyip buraya sorayım dedim.

şimdi veri setini train test diye bölmeden önce validation diye bir kısım ayırıyoruz (1000 satırlık bi verinin 200 satırını ayırdık modele 800 kaldı, 800'ü de train test diye ayırıp modeli eğiteceğiz validation en son test için). model kısmına ayrı validation kısmına ayrı bir one hot encoding (ohe) uygulaması yapıyoruz ancak bu ohe her unique değer için bir kolon oluşturduğundan ve valdiationa hiç gelmemiş unique değerler olabileceğinden bizim modelimiz ve validationımızın kolon sayıları birbirinden farklı oluyor. bunu aşmak için en doğru yöntem nedir fikri olan var mı?


 

Farkında olman için söylüyorum, tüm konuları çorba yapıp karıştırmışsın. Bu soruyu yapsan diğeri patlar.

Datayı bölmeden ohe yapabilirsin.

archmage mahmut

@archmage mahmut. hocam belki sizin yönteminiz farklıdır ama benden istenen tam olarak burda ortaya çıkan hatayı çözmem. datayı bölmeden ohe yaparsak sadece train test yapmış oluyoruz validation yapmamış oluyoruz zaten. (kavram adlarına takılmayın bazı yerlerde benim validation dediğime test diyor test dediğime validation vs. validationdan kastım modelin hiç görmememesi için en başta ayrılan veri -böyle yapıyoruz çünkü traini testi en iyi yapacak şekilde eğittiğimiz için biasli olabiliyor- 1000 satırlık veri varsa elimizde 200'ünü o şekilde baştan ayırıp 800'üyle modelimizi oluşturuyoruz o yüzden, bu 800'ün de %30 civarı test kalanı train diye ayırıyoruz sonra)

semaforo de medianoche

Çok detaylı olarak nasıl kullanıldığını hatırlamıyorum ama şöyle bi şey vardı pythonda bununla ilgili:

handle_unknown='ignore' parametresini kullanınca bunu çözüyordu ama tam olarak nasıl yapptığını da hatırlamıyorum internetten kolayca bulabilirsiniz zaten onu

kod olarak da kabaca:

from sklearn.preprocessing import OneHotEncoder

encoder = OneHotEncoder(handle_unknown='ignore')
cols_train = pd.DataFrame(encoder.fit_transform(X_train[object_cols]))
cols_valid = pd.DataFrame(encoder.transform(X_valid[object_cols]))

guguklusaat

Öncelikle, bilgisayarın aşırı eski değilse, validation set oluşturmak yerine cross validation yapabilirsin. Yani 800-200 train-test böldükten sonra, 8-fold cross validation yaparsın (aslında kaç fold olduğu önemli değil), her seferinde 700-100 bölerek 8 defa skor hesaplar.

Gelelim senin soruna.

Eğer train ve test datalarında tüm sütunların kategorik olsaydı, aşağıdaki linkteki sorunun cevabında incorrect yazan kısma kadar olan kodlar senin soruna cevap veriyor.

stackoverflow.com

Tabi muhtemelen datanda birkaç kategorik, birkaç nümerik feature vardır. O zaman column transformer ile, nümerik ve kategorik feature'ları ayrı ayrı işleyip, sonra birleştirmen gerekir. Onun için de şu sorunun ilk cevabı işini görecek.

stackoverflow.com

benaaymi
1

mobil görünümden çık