d = sqrt((x2 – x1)^2 + (y2 – y1)^2)from sklearn.linear_model import LogisticRegression
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
X, y = load_iris(return_X_y=True) # 3 třídy
X_train, X_test, y_train, y_test = train_test_split(X, y)
model = LogisticRegression(multi_class='ovr') # Zde říkáme, že se má použít OvR
model.fit(X_train, y_train)
pp se známým y/labelem, resp. spočítá pomocí ztrátové funkce, o jak moc se netrefil a upraví váhy tak, aby byl příště už blíž k realitěk shluků na základě jejich euklidovské vzdálenosti od centroidůk se uvádí při volání algoritmuTP + TN / (TP + TN + FP + FN) = počet správných klasifikací (ať už pozitivních nebo negativních) děleno počet všech klasifikacíTP / (TP + FP) = počet správných klasifikací (pouze pozitivních) děleno počet všech klasifikací (pouze pozitivních)TP / (TP + FN) = počet správných klasifikací (pouze pozitivních) děleno počet všech správných pozitivních klasifikací a špatných negativních klasifikací2 * precision * recall / (precision + recall)