AI naučnici podržavaju nenaučne metode (naučnici vratimo se nauci!)

Future Of Life https://futureoflife.org/open-letter/pause-giant-ai-experiments/ institut je pre izvesnog vremena objavio otvoreno pismo “Pause Giant AI Experiments: An Open Letter”, koje su potpisali neki od najvećih i najbitnijih imena u domenu veštačke inteligencije i istraživanja, a odnosi se na usporavanje progesa u istraživanju tj. treniranju AI modela na 6 meseci kako bi se “čovečanstvo pripremilo” na ovakve sisteme.

Problem koji je nastao je da naučnici koji su podržali pismo ili ne razumeju ili nisu pročitali šta podržavaju kao ni istraživanja na kojima se samo pismo bazira. U daljem tekstu videćemo kako se dato pismo bazira na istraživanjima koja se ili pogrešno navode ili navode istraživanja koja nisu prošla recenziju (eng. peer review). Podržavati ideje koje su namerno ili nenamerno pogrešne i nisu bazirane na naučnim dokazima, već na lucidnim snovima individualaca i naučnoj fantastici i kao takva mogu biti opasna, veoma opasna kada se većina ozbiljnih naučnika neznanjem ili nemarnošću, kao i nekolicina bilionera okupi oko ideje koja nema temelje u nauci.

Pismo koje ima za cilj da pauzira velike eksperimente sa veštačkom inteligencijom na najmanje šest meseci autori počinju sledećom rečenicom:

“AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research[1] and acknowledged by top AI labs.[2]”

referenca koji autori navode kao prvu je:

“Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).”.

Ova referenca je kompletno izvučena van konteksta i neprimereno citirana. Autori “Stohastičnih papagaja” u istraživanju nigde ne navode AI sisteme kao ljudsko-kompetativne (eng. human-competitive), i ne govore kako su ovakvi sistemi veoma rizični za društvo i čoveka. Već je celokupni rad baziran na tome da veliki jezički modeli (eng. LLM) mogu obmanuti čoveka/ljude da pomisle da su ovakvi modeli inteligentni ili pametni, i da modeli razumeju kontekst rečenica i napisanog teksta. Kako autori navode ovo predstavlja veoma veliki problem jer ovakvi sistemi ne samo da ne razumeju kontekst napisanog teksta već za njih to predstavlja samo statistički proračun koja će reč ili fraza biti sledeća, bez razumevanja konteksta istih.

Sledeća velika zabluda koji izvesni autori promovišu u ovom papiru je takozvani AGI (eng. Artificial General Intelligence) tj. Opšta Veštačka Inteligencija. Ovaj termin još uvek nije definisan naučno niti bilo ko od naučnika zna šta ovaj termin znači. Takođe poreklo termina jedino možemo videti u knjigama naučne fantastike. Autori pisma koriste istraživanja koja nisu prošla naučnu recenziju, kao što možemo videti iz sledećeg citata:

“Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization?”.

Ovde papir citira sledeće istraživanje:

“Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.”

ovo istraživanje nije prošlo naučnu recenziju tako da ne možemo gledati na njega kao naučno relevantno jer su u samo istraživanje unete razne nenaučne predikcije i definicije.

Ovde vidimo da definiciju inteligencije koja se koristi u prethodnim verzijama rada, a kasnije sklonjena iz novijih verzija:

“…An attempt to capture its essence was made in 1994 by a group of 52 psychologists who signed onto a broad definition published in an editorial about the science of intelligence…”

dolazi kao odgovor na kontraverznu knjigu “The Bell Curve” koja promoviše različite rasističke ideje zasnovane na nivoima IQa između različitih rasa i određenih grupa ljudi. Da li je dobro koristiti ovakva istraživanja da bi se objasnila inteligencija, različiti nivoi inteligencije i generalizovale stvari?

Kao što vidimo iz gore navedenog, postavlja se nekoliko pitanja:

  1. Da li su naučnici koji podržavaju ovo pismo, detaljno pročitali isto i da li ga razumeju?
  2. Zašto naučnici baziraju svoja istraživanja na idejama naučne fantastike a ne na relevantnim naučnim istraživanjima?
  3. Kada ćemo prestati da koristimo “velike reči” kao što su AGI, koje ni sami ne umemo da definišemo?
  4. Da li određene termine kao što su “inteligencija” treba objašnjavati i temeljiti na rasno diskutabilnim i diskriminatornim istraživanjima?

Tako da istraživači VRATIMO SE NAUCI i izbegnimo odluke zasnovane na naučnoj fantastici i rasno disktiminatornim teorijama, vratimo se činjenicama i nauci!