CRONOLOGIE COMPLETĂ

Istoria Inteligenței Artificiale

De la visele filozofice ale antichității la realitatea algoritmilor moderni, povestea inteligenței artificiale este una a curiozității umane nelimitate, a eșecurilor îndrăznețe și a triumfurilor neașteptate.

ERA PRIMORDIALĂ

Fundații Filozofice și Matematice

Mult înainte de primul computer electronic, oamenii visau la mașini inteligente. De la automatele antice la mașinile de calcul mecanice, fiecare epocă și-a imaginat propriile forme de „gândire artificială".

Antichitate

Mitul Automatelor

Legenda lui Talos, gigantul de bronz din mitologia greacă, și golemul din folclorul evreiesc reprezintă primele concepte de „ființe artificiale" care ar putea gândi și acționa.

1642

Pascaline — Prima Mașină de Calcul

Blaise Pascal creează Pascaline, o mașină mecanică capabilă să efectueze adunări și scăderi. Prima încercare de a automatiza gândirea matematică.

1854

Logica Booleană

George Boole publică „The Laws of Thought", stabilind fundamentele algebrei booleene — limba matematică a computerelor moderne și a circuitelor logice.

1936

Mașina Turing

Alan Turing descrie conceptul de mașină universală de calcul, demonstrând că orice proces computațional poate fi simulat. Fundamentul teoretic al tuturor computerelor moderne.

ERA NAȘTERII

1940-1960: Primele Computere și Conceptul de AI

Al Doilea Război Mondial accelerează dezvoltarea computerelor electronice. Pentru prima dată, mașinile pot efectua calcule complexe la viteze uimitoare. Întrebarea devine: pot aceste mașini să gândească?

1943

Modelul McCulloch-Pitts

Warren McCulloch și Walter Pitts publică primul model matematic al unui neuron artificial, demonstrând că rețelele neuronale simple pot calcula orice funcție logică.

Impact: Baza teoretică a rețelelor neuronale moderne.

1950

Testul Turing

Alan Turing publică „Computing Machinery and Intelligence", propunând celebrul test: dacă un om nu poate distinge conversația cu o mașină de cea cu un alt om, mașina poate fi considerată inteligentă.

Întrebare fundamentală: „Can machines think?"

1952

Primul Program de Joc

Arthur Samuel dezvoltă un program care învață să joace dame, demonstrând conceptul de „machine learning" înaintea termenului oficial.

Inovație: Învățare prin experiență, nu doar programare explicită.

1956

Conferința Dartmouth

John McCarthy, Marvin Minsky, Claude Shannon și Nathan Rochester organizează workshop-ul de la Dartmouth College. Termenul „Artificial Intelligence" este folosit oficial pentru prima dată.

Participanți notabili: Allen Newell, Herbert Simon, Arthur Samuel.

Optimism: Se credea că AI de nivel uman va fi realizată în câțiva ani.

1957

Perceptronul lui Rosenblatt

Frank Rosenblatt creează perceptronul, primul algoritm de învățare supervizată pentru rețele neuronale. Demonstrat pe hardware special construit la Cornell.

Promisiune: „A machine capable of original ideas."

1959

LISP și Procesarea Simbolică

John McCarthy creează limbajul de programare LISP, special conceput pentru manipularea simbolurilor și rezolvarea problemelor AI. Devine limba standard pentru cercetarea AI timp de decenii.

ERA DE AUR

1960-1974: Optimism și Progres Rapid

Perioada de mare entuziasm și finanțare generoasă. Computerele devin mai puternice și mai accesibile. Cercetătorii fac progrese rapide în diverse domenii: jocuri, geometrie, algebră, procesarea limbajului natural.

1965

ELIZA — Primul Chatbot

Joseph Weizenbaum de la MIT creează ELIZA, un program care simula un psihoterapeut rogerian. Deși simplu, mulți utilizatori atribuiau intenții reale programului.

Lecție: Oamenii sunt predispuși să atribuie inteligență mașinilor care mimează conversația umană.

1969

Shakey the Robot

SRI International dezvoltă Shakey, primul robot mobil general care putea raț iona despre propriile acțiuni. Integra viziunea computerizată, procesarea limbajului natural și planificarea.

1972

PROLOG — Logica Programării

Alain Colmerauer și echipa sa creează PROLOG, un limbaj bazat pe logica cu predicate. Devine popular în Europa pentru sisteme expert și procesarea limbajului natural.

PRIMA IARNĂ AI

1974-1980: Dezamăgire și Reduceri de Finanțare

Promisiunile ambițioase ale erei de aur nu s-au materializat. Sistemele AI aveau limitări severe: funcționau doar în „lumi jucărie" simplificate, nu puteau scala la probleme reale, și consumau resurse computaționale imense.

Raportul Lighthill (1973)

Matematicianul britanic James Lighthill publică un raport devastator criticând cercetarea AI, susținând că nu a reușit să-și atingă obiectivele. Rezultat: reducerea drastică a finanțării AI în Marea Britanie.

Problema Combinatorială

Cercetătorii realizează că multe probleme AI suferă de „explozie combinatorială" — spațiul de căutare crește exponențial, făcând imposibilă găsirea soluțiilor optime în timp rezonabil.

RENAȘTERE

1980-1987: Sistemele Expert și Boom-ul Comercial

AI renaște sub forma sistemelor expert — programe care capturează cunoștințele experților umani în domenii specifice. Companiile încep să investească masiv, văzând aplicații practice și profit potențial.

1980

XCON — Succes Comercial

Sistemul expert XCON de la Digital Equipment Corporation economisește companiei 40 milioane $ anual prin configurarea automată a comenzilor pentru sisteme informatice.

Impact: Prima aplicație AI comercială de mare succes.

1986

Backpropagation Redescoperit

Rumelhart, Hinton și Williams popularizează algoritmul de backpropagation pentru antrenarea rețelelor neuronale multicategorie. Deschide calea pentru deep learning-ul viitor.

Publicație: „Learning representations by back-propagating errors"

1987

Mașinile LISP Dedicate

Companiile dezvoltă hardware specializat pentru LISP și AI, vânzând mașini care costă sute de mii de dolari. Un piața valorează peste 1 miliard $.

A DOUA IARNĂ AI

1987-1993: Colapsul Pieței și Criză de Încredere

Sistemele expert se dovedesc costisitoare, fragile și dificil de întreținut. Mașinile LISP specializate sunt înlocuite de workstation-uri mai ieftine și mai puternice. Piața AI se prăbușește, multe companii dau faliment.

ERA MODERNĂ

1993-2011: Abordări Noi și Succese Spectaculoase

AI se reinventează: metode probabilistice, machine learning bazat pe date, abordări hibride. Focus pe probleme specifice cu rezultate măsurabile, nu pe AGI. Internet oferă cantități masive de date pentru antrenament.

1997

Deep Blue vs Kasparov

Computerul Deep Blue de la IBM îl învinge pe campionul mondial Garry Kasparov într-un meci de șah cu miză. Prima victorie decisivă a unei mașini asupra unui campion mondial uman.

Tehnic: 11.38 GFLOPS, evaluând 200 milioane poziții/secundă.

1998

Nașterea MNIST

Yann LeCun și colaboratorii publică datasetul MNIST de cifre scrise de mână, care devine benchmark-ul standard pentru testarea algoritmilor de computer vision.

2006

Deep Learning Renaște

Geoffrey Hinton demonstrează că rețelele neuronale profunde pot fi antrenate eficient folosind pre-antrenare unsupervised layer-by-layer. Începutul revoluției deep learning.

2009

ImageNet

Fei-Fei Li și echipa Stanford lansează ImageNet, un dataset cu peste 14 milioane imagini etichetate. Competiția anuală ImageNet (ILSVRC) devine benchmark-ul principal pentru computer vision.

2011

IBM Watson câștigă Jeopardy!

Sistemul de întrebări și răspunsuri Watson de la IBM îi învinge pe campionii Brad Rutter și Ken Jennings la show-ul Jeopardy!, demonstrând progrese în procesarea limbajului natural.

REVOLUȚIE

2012-2020: Revoluția Deep Learning

Convergența dintre big data, puterea de calcul GPU și arhitecturi neuronale inovatoare declanșează o explozie a performanței AI. Deep learning depășește metodele tradiționale în aproape toate domeniile.

2012

AlexNet — Momentul Decisiv

Rețeaua convoluțională AlexNet (Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton) câștigă ImageNet cu o marjă uriașă (15.3% top-5 error vs 26.2%). Folosește GPU-uri NVIDIA și dropout. Declanșează era deep learning.

Arhitectură: 8 straturi, 60 milioane parametri, antrenată pe 2 GPU-uri GTX 580.

2014

Generative Adversarial Networks (GANs)

Ian Goodfellow introduce GAN-urile, o arhitectură în care două rețele neuronale competiție: un generator creează date false, un discriminator încearcă să le detecteze.

Aplicații: Generare imagini, deepfakes, transfer de stil, super-resolution.

2015

ResNet și Skip Connections

Microsoft Research introduce ResNet (Residual Networks), permițând antrenarea rețelelor cu sute sau chiar mii de straturi folosind skip connections.

Performance: 3.57% top-5 error pe ImageNet — mai bun decât performanța umană.

2016

AlphaGo — Triumf Istoric

AlphaGo de la DeepMind îl învinge pe Lee Sedol (9-dan) la Go cu 4-1. Folosește deep reinforcement learning, Monte Carlo tree search și rețele de politică/valoare antrenate pe milioane de jocuri.

Moment iconic: Mutarea 37 din jocul 2 — o mișcare creativă pe care niciun om nu ar fi jucat-o.

2017

Transformer Architecture — „Attention Is All You Need"

Google Brain introduce arhitectura Transformer, înlocuind RNN-urile cu mecanisme de self-attention. Revoluționează procesarea secvențelor și devine baza tuturor LLM-urilor moderne.

Inovație cheie: Paralelizare completă, înlocuind procesarea secvențială.

2018

BERT și Transfer Learning în NLP

Google lansează BERT (Bidirectional Encoder Representations from Transformers), demonstrând puterea transfer learning-ului bidirectional în procesarea limbajului natural.

2019

GPT-2 și Generarea de Text

OpenAI releaseează GPT-2 (1.5 miliarde parametri), capabil să genereze text coerent și contextual relevant. Inițial considerat „prea periculos de publicat" complet.

2020

GPT-3 — Scalarea Dramatică

OpenAI lansează GPT-3 cu 175 miliarde parametri, demonstrând capacități emergente prin few-shot learning. Poate rezolva sarcini pe care nu a fost explicit antrenat să le facă.

Cost antrenament: Estimat la ~4.6 milioane $, 355 ani GPU-time.

ERA CONTEMPORANĂ

2021-Prezent: AI Generativă și Drumul către AGI

AI devine mainstream. Modele multimodale integrează text, imagine, audio și video. Dezbaterea despre AGI (Artificial General Intelligence) și siguranța AI devine centrală. Inteligența artificială este acum parte integrantă a vieții cotidiene pentru miliarde de oameni.

2021

DALL-E și Generarea de Imagini

OpenAI introduce DALL-E, capabil să genereze imagini din descrieri text. GitHub Copilot lansează era „AI coding assistants".

2022

ChatGPT — Momentul Definitiv

OpenAI lansează ChatGPT pe 30 noiembrie. Atinge 1 milion utilizatori în 5 zile, 100 milioane în 2 luni — cea mai rapidă adopție a unei aplicații din istorie.

Impact cultural: AI devine subiect de discuție mainstream, schimbă percepția publicului despre capabilitățile AI.

2022

Stable Diffusion Open-Source

Stability AI lansează Stable Diffusion ca model open-source, democratizând accesul la generarea de imagini AI. Explozie de aplicații creative.

2023

GPT-4 și Multimodalitate

OpenAI lansează GPT-4, primul LLM multimodal mainstream care poate procesa text și imagini. Performanță la nivel de expert uman în multe domenii.

Benchmarks: 90th percentile la examenul de avocatură, 99th percentile la GRE Verbal.

2023

Open-Source LLMs — LLaMA, Mistral

Meta releaseează LLaMA, declanșând explozia modelelor open-source. Mistral AI lansează modele competitive cu resursele fracționare.

2024

Agenți AI și Raționament

Focusul se mută de la LLM-uri statice la agenți autonomi care pot planifica, folosi tools și rezolva task-uri complexe. Modele de raționament precum o1.

2024

Video Generation — Sora și Altele

OpenAI prezintă Sora, capabil să genereze video realist de până la 1 minut. Google, Meta și alții lansează propriile modele de generare video.

Prezent

Cursa către AGI

Companiile majore (OpenAI, Google DeepMind, Anthropic) investesc miliarde în cercetarea AGI. Dezbaterea despre siguranță, alinierea valorilor și guvernanța AI devine critică.

Întrebare centrală: Când și cum vom realiza AGI în siguranță?

Lecții din Istoria AI

1. Cicluri de Hype și Dezamăgire: AI a trecut prin multiple „veri" de optimism urmate de „ierni" de dezamăgire. Succesul actual se bazează pe decenii de cercetare fundamentală.

2. Puterea Datelor și Calculului: Revoluția deep learning nu s-ar fi întâmplat fără big data și GPU-uri. Algoritmii de bază (backpropagation, CNN) existau de decenii.

3. Probleme Înguste vs AGI: Cele mai mari succese AI au venit din concentrarea pe probleme specifice, bine definite, nu din căutarea AGI directe.

4. Importanța Open Source: Democratizarea accesului la tools, datasets și modele a accelerat dramatic inovația (TensorFlow, PyTorch, HuggingFace).

5. Provocări Etice Emergente: Pe măsură ce AI devine mai capabilă, întrebările despre siguranță, bias, job displacement și control uman devin din ce în ce mai urgente.