UJEP materiály

Úvod do strojového učení

Užitečné zdroje

Strojové učení

Úlohy strojového učení

Glosář

Druhy strojového učení

Učení s učitelem

KNN algoritmus

OvR

from sklearn.linear_model import LogisticRegression
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split

X, y = load_iris(return_X_y=True)  # 3 třídy
X_train, X_test, y_train, y_test = train_test_split(X, y)

model = LogisticRegression(multi_class='ovr')  # Zde říkáme, že se má použít OvR
model.fit(X_train, y_train)

Regrese

Metriky regrese

LASSO regrese (L1 regularizace)

Ridge regrese (L2 regularizace)

Logistická regrese

Princip logistické regrese

  1. Máme nějaké vstupní atributy (features) - můžeme si je představit jako sloupce v tabulce.
  2. Každý z těchto atributů dostane od modelu určitou váhu, která vyjadřuje, jak moc je daný atribut důležitý pro predikci/klasifikaci.
  3. Například pokud máme atributy x1 (počet výskytů konkrétních slov), x2 (počet slov psaných VELKÝMI PÍSMENY), x3 (počet vykřičníků) a odpovídající váhy w1, w2, w3, model spočítá vážený součet jako: z = w1 * x1 + w2 * x2 + w3 * x3 + b, kde b je tzv. bias - volitelný posun výsledku.
  4. Tento výsledek z se následně vloží do aktivační funkce - v případě logistické regrese je to sigmoidní funkce, která převede výsledek na hodnotu mezi 0 a 1.
  5. Výsledná hodnota se potom interpretuje jako pravděpodobnost, že daný vstup patří do určité třídy (například že e-mail je spam) - nazývejme ji p
  6. Model se při učení učí, a to tím, že porovnává p se známým y/labelem, resp. spočítá pomocí ztrátové funkce, o jak moc se netrefil a upraví váhy tak, aby byl příště už blíž k realitě

Sigmoida

Učení bez učitele

K-means algoritmus

Zpětnovazebné učení

Kombinace učení s učitelem a bez učitele

Klasifikace

Druhy klasifikace

Algoritmy binární klasifikace

Hodnocení klasifikátorů

Accuracy

Precision

Recall

F1 skóre

Matice záměn

Škálování

Standardizace

Redukce dimenzionality

Metoda PCA

Metoda LDA

Další metody

Rozhodovací strom

Random Forest

Impurita

Entropie

Gini impurity

Prořezávání stromů (prunning)

Regresní stromy

Seskupování stromů a lesy

Bagging - Bootstrap Aggregating

Boosting

Lineární klasifikátor

Perceptron

Ztrátová funkce

Aktivační funkce

Activation Functions

Regularizace

SVM

Kernel trick

Příklady jader

Neuronová síť