Història de les Xarxes Neuronals

Un viatge des de 1957 fins l'actualitat

La història de les xarxes neuronals artificials està plena de moments emocionants, descobriments revolucionaris i també períodes d'oblit. Anem a veure els moments clau que van portar-nos fins aquí! 🚀

1957
🎉

Naixement del Perceptró

Frank Rosenblatt, psicòleg i informàtic nord-americà, inventa el perceptró.

Què va fer?

  • Creà la primera màquina capaç d'aprendre
  • Va demostrar que podia reconèixer lletres
  • Va inspirar la investigació en IA durant anys

💬 "El perceptró és un aparell electrònic que aprèn pel seu compte" - Frank Rosenblatt

1969
❄️

El Primer Hivern de la IA

Marvin Minsky i Seymour Papert publiquen el llibre "Perceptrons".

Què van demostrar?

  • El perceptró NO pot resoldre XOR
  • Matemàticament provaren les seves limitacions
  • Això va desanimar la recerca durant 15 anys

☃️ Hivern de la IA (1969-1980s)

Període on la recerca en xarxes neuronals gairebé es va aturar per falta de finançament i interès.

1986
🌱

Renaixement: Backpropagation

Rumelhart, Hinton i Williams popularitzen l'algoritme de backpropagation.

Què va canviar?

  • Ara es poden entrenar xarxes multicapa
  • Poden resoldre problemes complexos (com XOR!)
  • Relança totalment la recerca en IA

🔄 Backpropagation ensenya a la xarxa ajustant els pesos des de la sortida cap enrere!

2010-Avui
🚀

L'Era del Deep Learning

Les xarxes neuronals profundes revolucionen el món amb aplicacions increïbles.

Aplicacions actuals:

  • 🤖 ChatGPT, Claude (assistents d'IA)
  • 🎨 DALL-E, Midjourney (generació d'imatges)
  • 🚗 Cotxes autònoms (Tesla, Waymo)
  • 🏥 Diagnòstic mèdic
  • 🔊 Reconeixement de veu (Siri, Alexa)

💡 Tot va començar amb el perceptró!

El que avui sembla màgia són milions de perceptrons treballant junts.

🎓 Lliçó important

El perceptró semblava massa simple el 1969, però en combinar-los amb capes ocultes i backpropagation, van acabar canviant el món! Això que aprendràs avui és la base de la IA moderna. 🚀

Simulador del Perceptró

La neurona artificial més simple: aprèn a classificar amb una línia recta

🤔

Què és un Perceptró?

El perceptró és la neurona artificial més simple, inventada per Frank Rosenblatt el 1957. És capaç d'aprendre a classificar dades en dues categories diferents (per exemple: aprovar/suspendre, sí/no, 0/1).

📊 Què veig al gràfic?

Al gràfic pots veure:

  • Punts verds: Exemples de la classe 1 (sortida esperada = 1)
  • Punts morats: Exemples de la classe 0 (sortida esperada = 0)
  • Línia blava: Frontera de decisió (separa les dues classes)

La línia representa l'equació: w₁·x₁ + w₂·x₂ + b = 0

⚙️ Com funciona l'aprenentatge?

Procés d'aprenentatge:

  1. Predicció: El perceptró fa una predicció amb els pesos actuals
  2. Comparació: Compara la predicció amb el resultat esperat
  3. Error: Calcula l'error = (esperat - predicció)
  4. Ajust: Si hi ha error, ajusta els pesos:
    wnou = wactual + η × error × entrada

η (eta) és la taxa d'aprenentatge: controla quan ràpid aprèn el perceptró.

🎯 Què fan els pesos i el biaix?

Pesos (w₁, w₂):

  • Determinen la inclinació de la línia de decisió
  • Cada pes controla quanta importància té cada entrada
  • Pes positiu gran = aquesta entrada és molt important
  • Pes negatiu = aquesta entrada té efecte invers

Biaix (b):

  • Determina la posició de la línia (on talla els eixos)
  • Permet que la línia no passi per l'origen (0,0)
  • És com un "llindar" o umbral de decisió
🧪 Què són AND, OR i XOR?

Són portes lògiques bàsiques de la informàtica:

✓ AND (I)

Retorna 1 només si ambdues entrades són 1

✓ OR (O)

Retorna 1 si almenys una entrada és 1

✗ XOR (O Exclusiu)

Retorna 1 si les entrades són diferents

⚠️ El perceptró NO pot aprendre XOR!

💡 Limitació important: El perceptró només pot resoldre problemes linealment separables (que es poden separar amb una línia recta). XOR no ho és, per això necessitem xarxes neuronals més complexes!

🎛️

Controls

Pesos Inicials

0.00
0.00
0.00

📊 Estat Actual

Època: 0
Estat: No entrenat

🎯 Prediccions Actuals

Compara les prediccions abans i després d'entrenar:

Entrada Esperat Predicció
Encerts: 0 / 4 (0%)

🧪 Prova el Perceptró

Exemple pràctic:

Exemples ràpids:

📈

Espai de Decisió

Classe 1
Classe 0

La línia blava mostra la frontera de decisió. Els punts són els exemples d'entrenament.

📋

Historial d'Entrenament

Època Entrada Esperat Predicció Error w₁ w₂ bias

Les files verdes indiquen prediccions correctes. Les files vermelles indiquen errors.

Xarxa Neuronal Multicapa

Resol XOR amb 5 neuronas (2-2-1) i backpropagation

🧠

Què és una Xarxa Neuronal Multicapa?

Una xarxa neuronal multicapacapes ocultes entre l'entrada i la sortida. Això li permet aprendre patrons no lineals que el perceptró simple no pot resoldre, com el problema XOR.

Per què el Perceptró NO pot resoldre XOR?

El problema XOR:

x₁ x₂ XOR Significat
000Iguals → 0
011Diferents → 1
101Diferents → 1
110Iguals → 0

El problema:

  • Els punts (0,1) i (1,0) han de ser classe 1 (verds)
  • Els punts (0,0) i (1,1) han de ser classe 0 (morats)
  • NO es poden separar amb una línia recta!
  • El perceptró només pot traçar línies rectes → IMPOSSIBLE

💡 Descobriment de 1969: Marvin Minsky i Seymour Papert van demostrar matemàticament que el perceptró no pot resoldre XOR. Això va causar el primer "hivern de la IA".

La Solució: Capa Oculta

Com funciona una xarxa 2-2-1:

  1. 2 neuronas d'entrada: Reben x₁ i x₂
  2. 2 neuronas ocultes: Cada una aprèn una "característica"
    • Primera oculta: pot aprendre "almenys una entrada és 1"
    • Segona oculta: pot aprendre "ambdues entrades són 1"
  3. 1 neurona de sortida: Combina les dues característiques per decidir

Resultat: La xarxa crea una frontera de decisió no lineal (corba) que pot separar correctament els punts de XOR!

🎨 Com interpretar el diagrama de la xarxa?

Elements visuals:

Neurones (cercles)

Color indica activació: Blau=0Verd=1

Connexions verdes (pesos positius)

Més gruixut = més important. Reforça la senyal.

Connexions vermelles (pesos negatius)

Més gruixut = més important. Inhibeix la senyal.

0.847

Números sota les neurones

Valor d'activació actual (entre 0 i 1)

📉 Què mostra el gràfic d'error?

El gràfic mostra com aprèn la xarxa durant l'entrenament:

  • Eix X (horitzontal): Número d'època (cicle d'entrenament)
  • Eix Y (vertical): Error de la xarxa (distància entre predicció i realitat)
  • Curva vermella descendent: La xarxa està aprenent, l'error baixa
  • Punt verd final: Error final aconseguit

📊 Bon entrenament: La corba baixa ràpidament i s'estabilitza prop de 0.
⚠️ Mal entrenament: La corba es queda alta o oscil·la molt.

🔄 Què és Backpropagation?

Backpropagation (retropropagació) és l'algoritme d'aprenentatge de les xarxes neuronals.

Analogia simple:

Imagina que estàs jugant a les dards amb els ulls tancats:
  1. Llences un dard (predicció)
  2. Algú et diu "molt amunt i una mica a l'esquerra" (error)
  3. Ajustes l'angle del braç (ajust de pesos)
  4. Repeteixes fins encertar (convergència)

Procés tècnic:

  1. Forward: Calcula la predicció (endavant per la xarxa)
  2. Error: Compara predicció amb resultat esperat
  3. Backward: Propaga l'error enrere per totes les capes
  4. Ajust: Modifica cada pes proporcionalment a la seva "culpa"

🎓 Descobriment de 1986: Rumelhart, Hinton i Williams van popularitzar backpropagation, resolent el problema de com entrenar xarxes multicapa. Això va relançar la recerca en IA.

⚙️ Què són la Taxa d'Aprenentatge i les Èpoques?

📊 Taxa d'Aprenentatge (Learning Rate)

La taxa d'aprenentatge controla quant canvien els pesos en cada pas d'entrenament.

Analogia del cotxe:

Imagina que condueixes amb els ulls tancats cap a un aparcament:
  • Taxa baixa (0.1): Anar molt a poc a poc, moviments petits → Segur però LENT
  • Taxa mitjana (0.5): Velocitat normal, equilibrat → BON EQUILIBRI
  • Taxa alta (2.0): Anar molt ràpid, grans moviments → Ràpid però pot PASSAR-SE
✅ Taxa massa baixa: Aprenentatge molt lent, pot trigar moltes èpoques
✅ Taxa adequada: Aprèn ràpidament i convergeix bé
⚠️ Taxa massa alta: Oscil·la, pot "passar-se" i no convergir mai

🔁 Èpoques (Epochs)

Una època és un cicle complet d'entrenament amb tots els exemples del dataset.

Analogia de l'estudi:

  • 1 època = Llegir tots els exercicis del llibre una vegada
  • 100 èpoques = Repassar el llibre 100 vegades
  • Cada vegada que repasses, apreens una mica més
  • Després de moltes repeticions, domines el material

Per què necessitem moltes èpoques?

  1. La xarxa comença amb pesos aleatoris (no sap res)
  2. Cada època ajusta els pesos una mica
  3. Després de moltes èpoques, els pesos són òptims
  4. El gràfic d'error mostra aquesta millora gradual 📉

💡 Al simulador: Si tries 5,000 èpoques, la xarxa veurà els 4 exemples de XOR un total de 20,000 vegades (5,000 × 4)!

🎯 Com es combinen?

Taxa Èpoques Resultat
0.1 (baixa) 1,000 ⚠️ Pot no convergir
0.5 (mitjà) 5,000 ✅ Bon equilibri
2.0 (alta) 10,000 ❌ Pot oscil·lar

Experimenta amb diferents combinacions per veure-ho!

💡

Exemples Pràctics: Què Pot Resoldre la Nostra Xarxa?

La nostra xarxa 2-2-1 pot aprendre patrons no lineals del món real. Aquí tens exemples concrets:

💡

Interruptors Conmutats

Dos interruptors controlen el mateix llum (típic en escales):
Interruptor A: BAIX | Interruptor B: BAIX 💡 APAGAT
Interruptor A: BAIX | Interruptor B: DALT 💡 ENCÈS
Interruptor A: DALT | Interruptor B: BAIX 💡 ENCÈS
Interruptor A: DALT | Interruptor B: DALT 💡 APAGAT

🎯 Això és XOR! El llum s'encén quan els interruptors estan en posicions diferents. La nostra xarxa pot aprendre aquest patró!

🚪

Porta Automàtica Segura

La porta només s'obre si hi ha algú davant PERÒ NO darrere (per seguretat):
Sensor Davant: NO | Sensor Darrere: NO 🔒 TANCADA
Sensor Davant: NO | Sensor Darrere: 🔒 TANCADA
Sensor Davant: | Sensor Darrere: NO 🔓 OBERTA
Sensor Davant: | Sensor Darrere: 🔒 TANCADA

🎯 Patró no lineal! Només una combinació específica obre la porta. Un perceptró NO podria aprendre això, però la nostra xarxa SÍ!

🔄

Detector de Canvi

Detecta quan un sistema ha canviat d'estat:
Estat Anterior: OFF | Estat Actual: OFF 😴 Sense canvi
Estat Anterior: OFF | Estat Actual: ON 🚨 CANVI!
Estat Anterior: ON | Estat Actual: OFF 🚨 CANVI!
Estat Anterior: ON | Estat Actual: ON 😴 Sense canvi

🎯 Útil en sensors! Monitoratge de maquinària, detecció d'anomalies, sistemes d'alerta... Tot això és XOR!

Bit de Paritat (Detecció d'Errors)

En comunicacions digitals, XOR detecta si hi ha un nombre imparell d'uns:
Bit 1: 0 | Bit 2: 0 Paritat: 0 (parell)
Bit 1: 0 | Bit 2: 1 Paritat: 1 (imparell)
Bit 1: 1 | Bit 2: 0 Paritat: 1 (imparell)
Bit 1: 1 | Bit 2: 1 Paritat: 0 (parell)

🎯 Fonamental en informàtica! WiFi, USB, discos durs... tots usen XOR per detectar errors en les dades transmeses.

🎯

Per què és important?

Aquests 4 exemples del món real tenen EXACTAMENT el mateix patró matemàtic que XOR. Un perceptró simple NO pot resoldre cap d'aquests problemes (només pot traçar línies rectes). Però la nostra xarxa de 5 neurones pot aprendre TOTS aquests patrons!

✨ Aquest és el poder de les capes ocultes i backpropagation!

📖

Com utilitzar el simulador:

  1. Opcional: Canvia la taxa d'aprenentatge o èpoques
  2. Clica "Entrenar Xarxa (XOR)" per començar
  3. Observa com baixa l'error al gràfic 📉
  4. Mira com canvien els pesos (connexions) 🔗
  5. Quan acabi, prova la xarxa amb els exemples 🧪
💡 Experimenta: Prova taxa 0.1 vs 2.0 per veure la diferència!
⚙️

Controls de la Xarxa

Controla la velocitat dels ajustos de pesos

Cicles complets de repàs de tots els exemples

⚠️ Què fa el botó taronja?

Entrena amb només 50 èpoques per mostrar com una xarxa mal entrenada pot fallar en les prediccions.

📊 Estat d'Entrenament

Èpoques: 0
Error: -
Estat: No entrenat

🧪 Prova la Xarxa (XOR)

XOR retorna 1 si les entrades són diferents, 0 si són iguals.

Exemples ràpids:

🏗️

Arquitectura de la Xarxa (2-2-1)

🎨 Llegenda visual:

Neuró inactiva (≈0)
Neuró activa (≈1)
Pes positiu (reforça)
Pes negatiu (inhibeix)

Prova els exemples de sota per veure com s'activen les neurones!

📉

Evolució de l'Error

📊 Com interpretar el gràfic:

  • Curva baixant: La xarxa està aprenent ✅
  • Error prop de 0: Prediccions quasi perfectes 🎯
  • Curva plana: Ja ha convergit (acabat) ✋
🎓 Curiositat: Aquest procés s'anomena "descens del gradient" - la xarxa baixa pel pendent de l'error!

Per què el Perceptró NO Pot Resoldre XOR?

Comparació visual: limitacions del perceptró vs capacitat de xarxes multicapa

Perceptró Simple + XOR

No pot resoldre-ho!

El problema:

  • Els punts (0,1) i (1,0) han de ser verds (1)
  • Els punts (0,0) i (1,1) han de ser morats (0)
  • Impossible separar-los amb una línia recta!
  • El perceptró només pot traçar línies rectes → FALLA

Xarxa Multicapa (2-2-1) + XOR

Sí pot resoldre-ho!

La solució:

  • La capa oculta permet crear fronteres no lineals
  • Combina múltiples línies per crear regions complexes
  • Pot separar correctament tots els punts de XOR!
  • La xarxa aprèn automàticament amb backpropagation
💡

Conclusió Clau

El 1969, Marvin Minsky i Seymour Papert van demostrar matemàticament que el perceptró no pot resoldre problemes no linealment separables com XOR. Aquesta descoberta va causar el primer "Hivern de la IA" i va paralitzar la recerca durant gairebé dues dècades.

Però el 1986, l'algoritme de backpropagation va demostrar que les xarxes multicapa sí podien resoldre XOR i problemes molt més complexos. Aquest descobriment va relançar la IA i és la base del deep learning modern.

Com Aprèn la Xarxa? Les Derivades

Explicació intuïtiva de les matemàtiques darrere del backpropagation

🤔

Què és una Derivada? (Explicació Intuïtiva)

Una derivada mesura què tan ràpid canvia alguna cosa. És com preguntar: "Si moure aquest botó una mica, quant canvia el resultat?"

🚗

Analogia del Cotxe

Posició: On estàs en cada moment → funció original
Velocitat: Què tan ràpid canvies de posició → derivada
Acceleració: Què tan ràpid canvia la teva velocitat → derivada de la derivada
📊

Funció Sigmoid i la seva Derivada

💡 Interactiu:

Mou el cursor sobre el gràfic per veure com canvia la pendent (derivada) en cada punt de la corba sigmoid.

🔵 Corba Blava (Sigmoid)

La funció d'activació que utilitzen les neurones. Transforma qualsevol número en un valor entre 0 i 1.

🟠 Corba Taronja (Derivada)

Mostra "què tan sensible" és la neurona en cada punt. Màxima al centre (0.5), mínima als extrems (0 o 1).

🎯

Per a Què les Utilitzem en Xarxes Neuronals?

❓ El Problema

La xarxa necessita saber: "Si canvio aquest pes una mica, l'error puja o baixa? Quant?"

✅ La Solució

La derivada ens dóna exactament aquesta informació:

  • Si derivada > 0: augmentar el pes augmenta l'error → reduir pes
  • Si derivada < 0: augmentar el pes redueix l'error → augmentar pes
  • Si derivada = 0: estem en un mínim → no canviar
🏔️

Analogia de la Vall

Imagina que estàs en una muntanya amb els ulls tancats i vols baixar a la vall:

  1. Sents el pendent sota els teus peus (derivada)
  2. Si el pendent baixa cap a l'esquerra, vas cap a l'esquerra
  3. Continues fins que ja no hi ha pendent → has arribat a la vall!

🎓 Això s'anomena "descens del gradient" (gradient descent) - l'algoritme bàsic del machine learning!

📝

La Fórmula (Sense Por!)

σ'(x) = σ(x) × (1 - σ(x))

Aquesta és la derivada de la funció sigmoid. Sembla complicada, però ja està calculada matemàticament - nosaltres només l'apliquem!

🧮 Què significa?

  • Si la sortida de la neurona és 0.5 → derivada és 0.25 (màxima) → aprèn ràpid!
  • Si la sortida és 0 o 1 → derivada és ~0 → aprèn lent
  • Això significa que les neurones "indecises" (≈0.5) aprenen més que les "segures" (0 o 1)

💡 Optimització Important:

Fixa't que per calcular la derivada només necessitem la sortida sigmoid, no l'entrada original! Això fa backpropagation molt eficient.

De 5 Neurones a Claude i ChatGPT

L'evolució de xarxes neuronals: dels teus 13 paràmetres als bilions de la IA moderna

🎯

Els Principis NO Canvien!

ChatGPT, Claude, DALL-E utilitzen exactament els mateixos principis que has après avui:

Forward Propagation

La senyal flueix cap endavant per les capes

Backpropagation

L'error es propaga enrere per aprendre

Derivades (Gradient Descent)

Buscar el mínim de l'error

Funcions d'Activació

Sigmoid, ReLU, etc.

🎓 La única diferència és l'ESCALA: més neurones, més dades, més potència de càlcul!

📊

L'Evolució: De 1 a 1,000,000,000,000 Paràmetres

1957 1986 1998 2012 2019 2023 Avui
🧪

La Nostra Xarxa (2-2-1)

Neurones: 5
2 entrada + 2 oculta + 1 sortida
Paràmetres: 13
9 pesos + 3 sesgos + 1 sortida
Temps entrenament: 0.1s
Al teu navegador!
Dades: 4
Exemples de XOR
Pot fer:
✅ Resoldre XOR
✅ Patrons simples
🤖

ChatGPT-4 / Claude

Neurones: ~120 mil milions
Arquitectura Transformer amb 120+ capes
Paràmetres: ~1.76 bilions
1,760,000,000,000 pesos!
Temps entrenament: Mesos
En milers de GPUs potents
Dades: ~13 bilions
Tokens (paraules) d'Internet
Pot fer:
✅ Conversar naturalment
✅ Programar en múltiples llenguatges
✅ Raonar i resoldre problemes
✅ Traduir, resumir, crear contingut
✅ Entendre context i matisos
🤯

Posant-ho en Perspectiva

Si cada paràmetre de la nostra xarxa fos 1 gra d'arròs:

🍚
La nostra xarxa (13):
Cabria en una cullera
🏔️
ChatGPT-4 (1.76B):
Una muntanya de 58,000 tones!

Diferència de paràmetres:

135,384,615,384×
ChatGPT té 135 mil milions de vegades més paràmetres!
💡
Però recorda: ChatGPT simplement fa el mateix forward-backward-ajust que has vist avui... bilions i bilions de vegades!
🌟

Aplicacions Modernes de Xarxes Neuronals

💬

Llenguatge Natural

  • ChatGPT (OpenAI)
  • Claude (Anthropic)
  • Gemini (Google)
  • • Traducció automàtica
  • • Assistents virtuals
🎨

Imatges i Vídeo

  • DALL-E (OpenAI)
  • Midjourney
  • Stable Diffusion
  • • Reconeixement facial
  • • Cotxes autònoms
🧬

Ciència i Salut

  • AlphaFold (proteïnes)
  • • Diagnòstic mèdic
  • • Descobriment de fàrmacs
  • • Predicció del temps
  • • Investigació científica
🎓

El Que Has Après Avui

Forward Propagation

Com flueix la informació per la xarxa

Backpropagation

Com aprèn la xarxa dels seus errors

Funcions d'Activació

Com les neurones prenen decisions

Gradient Descent

Com trobar la solució òptima

Això és EXACTAMENT el que utilitza ChatGPT, Claude i tota la IA moderna! 🤯

La única diferència és l'escala.

Ara entens la IA millor que el 99% de la gent! 🚀

Has passat de veure una "caixa negra" misteriosa a comprendre els fonaments de la tecnologia que està canviant el món.

Autor: Manuel Muñoz Piera
Curs: 2n Batxillerat
Data: Novembre 2025

Desenvolupat amb ❤️ i Claude code; utilitzant JavaScript Vanilla i Tailwind CSS