Najprościej działanie biasu można wyjaśnić na podstawie interpretacji geometrycznej dla neuronu o pojedynczym wejściu, dla dwóch wybranych funkcji aktywacji. Tę interpretację dla funkcji signum i sigmoidalnej przedstawiono na rysunku poniżej.

rys 1a. Funkcje aktywacji neuronu bez biasu. Funkcja signum i funkcja sigmoidalna.

rys 1b. Funkcje aktywacji neuronu z biasem. Funkcja signum i funkcja sigmoidalna.

Z wykresów wynika, że w przypadku neuronu jednowejściowego zastosowanie biasu umożliwia przesuwanie progu aktywacji wzdłuż osi x. Gdy bias jest ujemny przesuwamy próg aktywacji w prawo, gdy dodatni to w lewo. Stąd prosty wniosek, że neuron z biasem powinien uczyć się nawet takich wektorów których zwykły neuron nie byłby w stanie się nauczyć. Dochodzimy do wniosku, że dodanie dodatkowej wagi kosztem zwiększenia ilości koniecznych obliczeń powoduje poprawę własności neuronu. Operacja normowania neuronu jednowejściowego nie ma sensu, gdyż każdy podstawiony punkt po unormowaniu może otrzymać trzy wartości –1, 0 lub 1.



     Przyjrzyjmy się więc operacji normowania dla jednowymiarowego neuronu z biasem. Wykonywanie tej operacji na wektorach wejściowych (przyjmujemy bias jako wejście o wartości 1) i wagach neuronu powoduje przeniesienie wszystkich punktów na okrąg o promieniu równym 1. Wynik takiej operacji przedstawiono obok. Operacja normalizacji powoduje, w zależności od znaku biasu, przeniesienie wszystkich punktów na odpowiednią część okręgu. W przypadku dodatniego biasu na górną część okręgu, natomiast w przypadku ujemnego biasu na dolną. Zwiększenie wymiaru powoduje to, że w łatwy sposób można przeprowadzić linię rozgraniczającą od siebie punkty o różnych odpowiedziach neuronu. Ta linia prosta przechodzić będzie przez środek układu współrzędnych, jej nachylenie zależeć będzie od w0 (waga dla biasu). Czyli bias powoduje przeniesienie rozwiązania w „dodatkowy wymiar”, przez co rozwiązanie danego problemu staje się w ogóle możliwe.