Allora, si parte dal presupposto che l’uscita dal classificatore sia un flusso di probabilità di comandi suddivisi in due classi, che allo stato grezzo possono portare a errori di potenziali, quali quello di intepretazione, in quanto il sistema non ha accumulato evidenze su quale sia il comando giusto da inviare, quindi quale sia la vera intenzione dell’utente. A questo scopo si cerca di andare ad accumulare quante più prove possibili, quindi quanti più comandi possibili per poter poi inviare il comando corretto circa le intenzioni dell’utente, ovvero un comando che appartiene a una delle due classi. In particolare, un primo esempio di accumulo di prove è l’exponential smoothing, ma è ancora incerto in quanto non raggiunge tutto il range e invia segnale anche quando l’utente non vuole intenzionalmente inviarlo durante la condizione di resto (se vedi i grafici nel secondo si vede proprio che viene raggiunta la soglia anche quando non si vuole). Le evidenze vengono accumulate secondo un quadro di integrazione delle probabilità di livellamento esponenziale. Le probabilità vengono integrate fino a quando una classe raggiunge una soglia sull’intenzione dell’utente di fornire un comandoviene quindi impartito il comando mentale e le probabilità vengono reimpostate su una distribuzione uniforme. Un tale quadro produce un feedback fluido e prevedibile, aiutando cosi la formazione degli utenti evitando fluttuazione, ovvero si previene l’invio di comandi arbitrari da parte dell’utente se si distoglie l’attenzione dal task grazie alla SMOOTH CONVERGENCEINTENTIONAL NON CONTROL.