10.2. Mesterséges neurális hálózatok felépítése

Az ANN-ok alapelemei az egyes neuronok (10.2 ábra). A bemenő p skalár és w súly, valamint a b bias (eltolás) és 1 konstans szorzatainak összege képezi a neuronba bejövő jel súlyozott összegének n értékét (net). A neuronba belépett, összegződött n értéket egy f aktivációs függvény alakítja át a kimeneti értékké (Paláncz, 2011). Az aktivációs függvény által átalakított jel adódik át a következő neuronnak (10.2. ábra).

10.2. ábra - Neurális hálózat sematikus működési modellje egy neuronnal és egy bemeneti jellel (Hagan et al. 1996 alapján)

Neurális hálózat sematikus működési modellje egy neuronnal és egy bemeneti jellel (Hagan et al. 1996 alapján)

10.3. ábra - Neurális hálózat sematikus működési modellje egy neuronnal és többszörös bemeneti értékkel (Hagan et al. 1996 alapján)

Neurális hálózat sematikus működési modellje egy neuronnal és többszörös bemeneti értékkel (Hagan et al. 1996 alapján)

Valójában a neuronoknak többszörös bemeneti értékei vannak (10.3 ábra). R különböző bemeneti érték esetén minden egyes p1, p2, …, pR input a hozzá tartozó w1,1, w1,2, …, w1,R súllyal szorzódik, ahol az első index a végponton lévő neuron sorszáma, a második a kezdő neuron sorszáma. A w1,1, w1,2, …, w1,R súlyok képezik a w súlyvektort, az inputok vektora p . Ekkor a net inputot az n = w1,1 p1 +w1,2 p2+…+w1,R pR + b összeg adja, vagy vektoros formában: n = w•p+b.

A valós problémák megoldására általában nem elegendő egy neuron, hanem párhuzamosan dolgozó (azonos rétegen belül egymással kapcsolatban nem lévő) neuronokból álló rétegek kombinációjának eredményeként születő neurális hálózat szolgáltatja a megoldást (10.4. ábra). A legegyszerűbb ANN-ok egy bemeneti, egy rejtett és egy kimeneti réteget tartalmaznak (10.1. ábra). A bemeneti és kimeneti rétegek ismertek, míg a rejtett rétegeket ismeretlen értékű neuronok halmazai alkotják, amelyek nem állnak kapcsolatban a modell környezetével.

10.4. ábra - Neurális hálózat sematikus működési modellje két, S számú neuronból álló réteggel és többszörös bemeneti értékkel (Hagan et al. 1996 alapján)

Neurális hálózat sematikus működési modellje két, S számú neuronból álló réteggel és többszörös bemeneti értékkel (Hagan et al. 1996 alapján)

10.5. ábra - Az első réteg súlymátrixa

Az első réteg súlymátrixa

Minden réteg saját aktivációs függvénnyel, súlymátrix-szal és bias-szal rendelkezik (10.5. ábra). A 10.4. ábrán az első réteg a rejtett, míg a második a kimeneti réteg. A második réteg (a2 = f2(W1a1+b2) inputja az első réteg outputja. Így a hálózat outputját az a2 = f2(W2 f1(W1p+b1)+b2 összefüggés adja meg. A hálózat komplexitása és számítási képessége a rejtett rétegek és a rétegekben lévő neuronok számától függ.