Vai al contenuto

Calcolare la accuracy di una Matrice di Confusione

L'accuratezza in una matrice di confusione rappresenta la proporzione di classificazioni corrette rispetto al totale delle classificazioni effettuate da un modello di machine learning. In altre parole, indica quanto spesso il modello ha previsto correttamente la classe a cui appartiene un dato campione.

SUM(
  CASE
    WHEN "Classified" = "GrndTruth" THEN 1
    ELSE 0
  END
)
/
array_length(array_agg(@id))

Funzioni e variabili utilizzate: