Hogyan született meg az ötlet, hogy egy gép gondolkodni tudjon?
Az emberi agy: a belső univerzum kutatása
Az emberi elme működése évszázadok óta foglalkoztatja a tudományt és a filozófiát.
A 20. század közepétől – különösen az 1950–60-as évektől – komoly tudományos áttörések történtek az agykutatásban.
A neurológia, pszichológia és a kognitív tudományok összehangoltan kezdték feltérképezni:
- Hogyan érzékelünk, tanulunk és emlékezünk?
- Milyen folyamatok irányítják a döntéseinket?
- Milyen szerepet játszanak az idegi kapcsolatok és az információfeldolgozás?
A kutatók egyre inkább úgy tekintettek az agyra, mint egy biológiai számítógépre:
- Neuronok továbbítják az elektromos jeleket,
- Szinapszisok révén jönnek létre az emléknyomok és tanulási minták,
- A mintafelismerés pedig az intelligencia kulcsa lett.
Ez a gondolat vezetett el egy radikális felismeréshez:
Ha az emberi agy tanulásra képes – akkor elméletben egy mesterséges rendszer is lehet tanulékony.
A számítástechnika fejlődése: az MI alapjainak lefektetése
Miközben a tudósok az agy működését kutatták, a technológia is rohamos fejlődésnek indult.
Az első számítógépek még egyszerű, soros utasításokat hajtottak végre. De az 1960-as évektől kezdve megjelent egy új igény:
olyan gépeket akartak, amelyek képesek értelmezni, tanulni, sőt döntéseket is hozni.
Mérföldkövek az MI történetében:
- 1956 – A Dartmouth konferencián használják először a „mesterséges intelligencia” kifejezést.
- 1966 – Megszületik ELIZA, az első nyelvi feldolgozáson alapuló program, amely képes volt pszichológiai beszélgetést imitálni.
- 1997 – Az IBM Deep Blue legyőzi Garri Kaszparov sakkvilágbajnokot.
- 2011 – A Watson nevű MI megnyeri az amerikai Jeopardy kvízjátékot, emberi versenytársak ellen.
- 2010-es évektől – Megjelennek a mélytanuló hálózatok, LLM-ek (nagy nyelvi modellek), és az MI elkezdi átszőni a hétköznapi életet.
A számítógépek többé már nem csak számoltak – hanem:
- Tanultak,
- Képesek lettek mintákat felismerni,
- És önállóan fejlődni kezdek.
