Mitul Automatelor
Legenda lui Talos, gigantul de bronz din mitologia greacă, și golemul din folclorul evreiesc reprezintă primele concepte de „ființe artificiale" care ar putea gândi și acționa.
De la visele filozofice ale antichității la realitatea algoritmilor moderni, povestea inteligenței artificiale este una a curiozității umane nelimitate, a eșecurilor îndrăznețe și a triumfurilor neașteptate.
Mult înainte de primul computer electronic, oamenii visau la mașini inteligente. De la automatele antice la mașinile de calcul mecanice, fiecare epocă și-a imaginat propriile forme de „gândire artificială".
Legenda lui Talos, gigantul de bronz din mitologia greacă, și golemul din folclorul evreiesc reprezintă primele concepte de „ființe artificiale" care ar putea gândi și acționa.
Blaise Pascal creează Pascaline, o mașină mecanică capabilă să efectueze adunări și scăderi. Prima încercare de a automatiza gândirea matematică.
George Boole publică „The Laws of Thought", stabilind fundamentele algebrei booleene — limba matematică a computerelor moderne și a circuitelor logice.
Alan Turing descrie conceptul de mașină universală de calcul, demonstrând că orice proces computațional poate fi simulat. Fundamentul teoretic al tuturor computerelor moderne.
Al Doilea Război Mondial accelerează dezvoltarea computerelor electronice. Pentru prima dată, mașinile pot efectua calcule complexe la viteze uimitoare. Întrebarea devine: pot aceste mașini să gândească?
Warren McCulloch și Walter Pitts publică primul model matematic al unui neuron artificial, demonstrând că rețelele neuronale simple pot calcula orice funcție logică.
Impact: Baza teoretică a rețelelor neuronale moderne.
Alan Turing publică „Computing Machinery and Intelligence", propunând celebrul test: dacă un om nu poate distinge conversația cu o mașină de cea cu un alt om, mașina poate fi considerată inteligentă.
Întrebare fundamentală: „Can machines think?"
Arthur Samuel dezvoltă un program care învață să joace dame, demonstrând conceptul de „machine learning" înaintea termenului oficial.
Inovație: Învățare prin experiență, nu doar programare explicită.
John McCarthy, Marvin Minsky, Claude Shannon și Nathan Rochester organizează workshop-ul de la Dartmouth College. Termenul „Artificial Intelligence" este folosit oficial pentru prima dată.
Participanți notabili: Allen Newell, Herbert Simon, Arthur Samuel.
Optimism: Se credea că AI de nivel uman va fi realizată în câțiva ani.
Frank Rosenblatt creează perceptronul, primul algoritm de învățare supervizată pentru rețele neuronale. Demonstrat pe hardware special construit la Cornell.
Promisiune: „A machine capable of original ideas."
John McCarthy creează limbajul de programare LISP, special conceput pentru manipularea simbolurilor și rezolvarea problemelor AI. Devine limba standard pentru cercetarea AI timp de decenii.
Perioada de mare entuziasm și finanțare generoasă. Computerele devin mai puternice și mai accesibile. Cercetătorii fac progrese rapide în diverse domenii: jocuri, geometrie, algebră, procesarea limbajului natural.
Joseph Weizenbaum de la MIT creează ELIZA, un program care simula un psihoterapeut rogerian. Deși simplu, mulți utilizatori atribuiau intenții reale programului.
Lecție: Oamenii sunt predispuși să atribuie inteligență mașinilor care mimează conversația umană.
SRI International dezvoltă Shakey, primul robot mobil general care putea raț iona despre propriile acțiuni. Integra viziunea computerizată, procesarea limbajului natural și planificarea.
Alain Colmerauer și echipa sa creează PROLOG, un limbaj bazat pe logica cu predicate. Devine popular în Europa pentru sisteme expert și procesarea limbajului natural.
Promisiunile ambițioase ale erei de aur nu s-au materializat. Sistemele AI aveau limitări severe: funcționau doar în „lumi jucărie" simplificate, nu puteau scala la probleme reale, și consumau resurse computaționale imense.
Matematicianul britanic James Lighthill publică un raport devastator criticând cercetarea AI, susținând că nu a reușit să-și atingă obiectivele. Rezultat: reducerea drastică a finanțării AI în Marea Britanie.
Cercetătorii realizează că multe probleme AI suferă de „explozie combinatorială" — spațiul de căutare crește exponențial, făcând imposibilă găsirea soluțiilor optime în timp rezonabil.
AI renaște sub forma sistemelor expert — programe care capturează cunoștințele experților umani în domenii specifice. Companiile încep să investească masiv, văzând aplicații practice și profit potențial.
Sistemul expert XCON de la Digital Equipment Corporation economisește companiei 40 milioane $ anual prin configurarea automată a comenzilor pentru sisteme informatice.
Impact: Prima aplicație AI comercială de mare succes.
Rumelhart, Hinton și Williams popularizează algoritmul de backpropagation pentru antrenarea rețelelor neuronale multicategorie. Deschide calea pentru deep learning-ul viitor.
Publicație: „Learning representations by back-propagating errors"
Companiile dezvoltă hardware specializat pentru LISP și AI, vânzând mașini care costă sute de mii de dolari. Un piața valorează peste 1 miliard $.
Sistemele expert se dovedesc costisitoare, fragile și dificil de întreținut. Mașinile LISP specializate sunt înlocuite de workstation-uri mai ieftine și mai puternice. Piața AI se prăbușește, multe companii dau faliment.
AI se reinventează: metode probabilistice, machine learning bazat pe date, abordări hibride. Focus pe probleme specifice cu rezultate măsurabile, nu pe AGI. Internet oferă cantități masive de date pentru antrenament.
Computerul Deep Blue de la IBM îl învinge pe campionul mondial Garry Kasparov într-un meci de șah cu miză. Prima victorie decisivă a unei mașini asupra unui campion mondial uman.
Tehnic: 11.38 GFLOPS, evaluând 200 milioane poziții/secundă.
Yann LeCun și colaboratorii publică datasetul MNIST de cifre scrise de mână, care devine benchmark-ul standard pentru testarea algoritmilor de computer vision.
Geoffrey Hinton demonstrează că rețelele neuronale profunde pot fi antrenate eficient folosind pre-antrenare unsupervised layer-by-layer. Începutul revoluției deep learning.
Fei-Fei Li și echipa Stanford lansează ImageNet, un dataset cu peste 14 milioane imagini etichetate. Competiția anuală ImageNet (ILSVRC) devine benchmark-ul principal pentru computer vision.
Sistemul de întrebări și răspunsuri Watson de la IBM îi învinge pe campionii Brad Rutter și Ken Jennings la show-ul Jeopardy!, demonstrând progrese în procesarea limbajului natural.
Convergența dintre big data, puterea de calcul GPU și arhitecturi neuronale inovatoare declanșează o explozie a performanței AI. Deep learning depășește metodele tradiționale în aproape toate domeniile.
Rețeaua convoluțională AlexNet (Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton) câștigă ImageNet cu o marjă uriașă (15.3% top-5 error vs 26.2%). Folosește GPU-uri NVIDIA și dropout. Declanșează era deep learning.
Arhitectură: 8 straturi, 60 milioane parametri, antrenată pe 2 GPU-uri GTX 580.
Ian Goodfellow introduce GAN-urile, o arhitectură în care două rețele neuronale competiție: un generator creează date false, un discriminator încearcă să le detecteze.
Aplicații: Generare imagini, deepfakes, transfer de stil, super-resolution.
Microsoft Research introduce ResNet (Residual Networks), permițând antrenarea rețelelor cu sute sau chiar mii de straturi folosind skip connections.
Performance: 3.57% top-5 error pe ImageNet — mai bun decât performanța umană.
AlphaGo de la DeepMind îl învinge pe Lee Sedol (9-dan) la Go cu 4-1. Folosește deep reinforcement learning, Monte Carlo tree search și rețele de politică/valoare antrenate pe milioane de jocuri.
Moment iconic: Mutarea 37 din jocul 2 — o mișcare creativă pe care niciun om nu ar fi jucat-o.
Google Brain introduce arhitectura Transformer, înlocuind RNN-urile cu mecanisme de self-attention. Revoluționează procesarea secvențelor și devine baza tuturor LLM-urilor moderne.
Inovație cheie: Paralelizare completă, înlocuind procesarea secvențială.
Google lansează BERT (Bidirectional Encoder Representations from Transformers), demonstrând puterea transfer learning-ului bidirectional în procesarea limbajului natural.
OpenAI releaseează GPT-2 (1.5 miliarde parametri), capabil să genereze text coerent și contextual relevant. Inițial considerat „prea periculos de publicat" complet.
OpenAI lansează GPT-3 cu 175 miliarde parametri, demonstrând capacități emergente prin few-shot learning. Poate rezolva sarcini pe care nu a fost explicit antrenat să le facă.
Cost antrenament: Estimat la ~4.6 milioane $, 355 ani GPU-time.
AI devine mainstream. Modele multimodale integrează text, imagine, audio și video. Dezbaterea despre AGI (Artificial General Intelligence) și siguranța AI devine centrală. Inteligența artificială este acum parte integrantă a vieții cotidiene pentru miliarde de oameni.
OpenAI introduce DALL-E, capabil să genereze imagini din descrieri text. GitHub Copilot lansează era „AI coding assistants".
OpenAI lansează ChatGPT pe 30 noiembrie. Atinge 1 milion utilizatori în 5 zile, 100 milioane în 2 luni — cea mai rapidă adopție a unei aplicații din istorie.
Impact cultural: AI devine subiect de discuție mainstream, schimbă percepția publicului despre capabilitățile AI.
Stability AI lansează Stable Diffusion ca model open-source, democratizând accesul la generarea de imagini AI. Explozie de aplicații creative.
OpenAI lansează GPT-4, primul LLM multimodal mainstream care poate procesa text și imagini. Performanță la nivel de expert uman în multe domenii.
Benchmarks: 90th percentile la examenul de avocatură, 99th percentile la GRE Verbal.
Meta releaseează LLaMA, declanșând explozia modelelor open-source. Mistral AI lansează modele competitive cu resursele fracționare.
Focusul se mută de la LLM-uri statice la agenți autonomi care pot planifica, folosi tools și rezolva task-uri complexe. Modele de raționament precum o1.
OpenAI prezintă Sora, capabil să genereze video realist de până la 1 minut. Google, Meta și alții lansează propriile modele de generare video.
Companiile majore (OpenAI, Google DeepMind, Anthropic) investesc miliarde în cercetarea AGI. Dezbaterea despre siguranță, alinierea valorilor și guvernanța AI devine critică.
Întrebare centrală: Când și cum vom realiza AGI în siguranță?
1. Cicluri de Hype și Dezamăgire: AI a trecut prin multiple „veri" de optimism urmate de „ierni" de dezamăgire. Succesul actual se bazează pe decenii de cercetare fundamentală.
2. Puterea Datelor și Calculului: Revoluția deep learning nu s-ar fi întâmplat fără big data și GPU-uri. Algoritmii de bază (backpropagation, CNN) existau de decenii.
3. Probleme Înguste vs AGI: Cele mai mari succese AI au venit din concentrarea pe probleme specifice, bine definite, nu din căutarea AGI directe.
4. Importanța Open Source: Democratizarea accesului la tools, datasets și modele a accelerat dramatic inovația (TensorFlow, PyTorch, HuggingFace).
5. Provocări Etice Emergente: Pe măsură ce AI devine mai capabilă, întrebările despre siguranță, bias, job displacement și control uman devin din ce în ce mai urgente.