Vés al contingut

Regla d'Oja

De la Viquipèdia, l'enciclopèdia lliure

La regla d'aprenentatge d'Oja, o simplement la regla d'Oja, que porta el nom de l'informàtic finlandès Erkki Oja, és un model de com les neurones del cervell o de les xarxes neuronals artificials canvien la força de la connexió, o aprenen, amb el temps. És una modificació de la regla de Hebb estàndard (vegeu aprenentatge de Hebbian) que, mitjançant la normalització multiplicativa, resol tots els problemes d'estabilitat i genera un algorisme per a l'anàlisi de components principals. Aquesta és una forma computacional d'un efecte que es creu que passa a les neurones biològiques.[1]

Teoria[modifica]

La regla d'Oja requereix una sèrie de simplificacions per derivar, però en la seva forma final és demostrablement estable, a diferència de la regla de Hebb. És un cas especial d'una sola neurona de l'Algoritme Hebbian Generalitzat. Tanmateix, la regla d'Oja també es pot generalitzar d'altres maneres amb diferents graus d'estabilitat i èxit.

Fórmula[modifica]

Considereu un model simplificat d'una neurona que retorna una combinació lineal de les seves entrades x utilitzant pesos presinàptics w:


La regla d'Oja defineix el canvi en els pesos presinàptics w donada la resposta de sortida d'una neurona a les seves entrades

on η és la taxa d'aprenentatge que també pot canviar amb el temps. Tingueu en compte que els símbols en negreta són vectors i n defineix una iteració temporal discreta. La regla també es pot fer per a iteracions contínues com

Generalitzacions[modifica]

Recentment, en el context de l'aprenentatge associatiu, s'ha demostrat que la regla de Hebbian, que és similar a la regla d'Oja, es pot generalitzar mitjançant un model semblant a Ising: La idea principal de la generalització es basa en la formulació de l'energia. funcionen com en el model Ising i després aplicant-hi l'algoritme de descens de gradient estocàstic.

Aplicacions[modifica]

La regla d'Oja es va descriure originalment al document d'Oja de 1982,[2] però el principi d'autoorganització al qual s'aplica s'atribueix per primera vegada a Alan Turing el 1952.[3] PCA també ha tingut una llarga història d'ús abans que la regla d'Oja formalitzés el seu ús en la computació de xarxes el 1989. Així, el model es pot aplicar a qualsevol problema de mapeig autoorganitzat, en particular aquells en què l'extracció de característiques és d'interès principal. Per tant, la regla d'Oja té un lloc important en el processament de la imatge i la parla. També és útil, ja que s'expandeix fàcilment a dimensions més altes de processament, i així poden integrar múltiples sortides ràpidament. Un exemple canònic és el seu ús en visió binocular.[4]

Referències[modifica]

  1. «Oja’s rule: Derivation, Properties» (en anglès). https://www.cse-lab.ethz.ch.+[Consulta: 12 agost 2023].
  2. Oja, Erkki Journal of Mathematical Biology, 15, 3, novembre 1982, pàg. 267–273. DOI: 10.1007/BF00275687. PMID: 7153672. BF00275687.
  3. Haykin, Simon. Neural Networks: A Comprehensive Foundation (en anglès). 2. Prentice Hall, 1998. ISBN 978-0-13-273350-2. 
  4. Intrator, Nathan. «Unsupervised Learning» (en anglès). Neural Computation lectures. Tel-Aviv University. [Consulta: 22 novembre 2007].