IBM enpresako Deep Blue. Argazkikoa bezalako ordenagailua oso ospetsu bihurtu zen munduko xake txapeldunari, Kasparovi, irabazi zionean. Historian lehen makina izan zen munduko txapeldun bati irabazten. Argazkia: Computer History MuseumAsimorobot humanoidea
Adimen artifiziala (AA; batzuetan, IA, inteligentzia artifiziala, edo (Ingelesez)AI ere) makinek frogatutako adimena da (informazioaren pertzepzioa, sintesia eta inferentzia), gizakiak ez diren animaliek edo gizakiek erakutsitako adimenari kontrajarria. Mota horretako lanen adibideak dira ahotsa ezagutzea, ordenagailuen ikusmena, hizkuntzen arteko itzulpena (naturalak) eta beste datu-konbinazio batzuk.
Makinak gero eta gaiago bihurtzen diren heinean, "inteligentzia" eskatzen duten zereginak AAren definiziotik ezabatzen dira askotan, AA efektua bezala ezagutzen den fenomenoa. Adibidez, karaktereen ezagupen optikoa AA gisa hartzen denetik kanpo utzi ohi da, ohiko teknologia bihurtu baita.
Adimen artifiziala diziplina akademiko gisa sortu zen 1956an, eta, ordutik, hainbat baikortasun-bolada izan ditu; ondoren, etsipena eta finantziazio-galera ("AAren negua" esaten zaiona), eta, ondoren, ikuspegi berriak, arrakasta eta finantzaketa berritua. AAko ikerketak ikuspegi desberdin asko probatu eta baztertu ditu, hala nola garunaren simulazioa, gizakiek problemen ebazpenaren modelatzea, logika formala, ezagutzaren datu-base handiak eta animalien portaeraren imitazioa. XXI. mendeko lehen hamarkadetan, ikaskuntza automatiko matematiko eta estatistiko handia nagusi izan da eremuan, eta teknika hori oso arrakastatsua izan dela erakutsi du industria eta mundu akademiko osoan erronkazko arazo asko konpontzen lagunduz.
Giza adimena "hain zehatz deskribatu daiteke, ezen simulatzen duen makina bat egin daitekeen" ustean sortu zen eremua. Honek giza adimenaren antzekoa gaitasuna zuten izaki artifizialak sortzearen eta ondorio etikoen gaineko argudio filosofikoak sorrarazi zituen; gai hauek antzinatik aztertu zituzten mitoak, fikzioak eta filosofiak. Ordutik, informatikariek eta filosofoek iradoki dute AA arrisku existentzial bihur daitekeela gizateriarentzat, haien gaitasun arrazionalak helburu onuragarrietara bideratzen ez badira. Adimen artifiziala ere kritikatu izan da AAren benetako gaitasun teknologikoak puzteagatik.
Terminoaren definizioari buruz
Lagunartean, adimen artifiziala terminoa makina batek gizakiek beste gizakien adimenekin lotzen dituzten funtzio «kognitiboak» imitatzen dituenean aplikatzen da, adibidez: «hautematean», «arrazoitzean», «ikastean» eta «arazoak konpontzean». Andreas Kaplanek eta Michael Haenleinek honela definitzen dute adimen artifiziala: «Sistema batek kanpoko datuak behar bezala interpretatzeko duen gaitasuna, datu horietatik ikasteko eta ezagutza horiek egokitzapen malguaren bidez zeregin eta xede zehatzak lortzeko erabiltzeko duen gaitasuna». Gorka Azkunek atazen araberako definizio bat ematen du: «Ezin dugunez besterik gabe esan makina batek adimena daukan edo ez, egiten duguna da makina horri ataza batzuk jarri, gure ustez izaki adimentsu batek bakarrik ebatzi litzakeenak, eta ikusten dugu makinak zenbateraino ondo egiten dituen ataza horiek». Makinak gero eta gai bihurtzen diren heinean, noizbait giza- eta adimen-beharra zegoela pentsatu izan den teknologia hori ezabatu egiten da definiziotik.
Adibidez, karaktereen ezagupen optikoa ez da jada «adimen artifizialaren» adibidetzat hartzen, teknologia arrunt bihurtu baita. Oraindik, adimen artifizial gisa sailkatuta dauden aurrerapen teknologikoak gidatzeko sistema autonomoak edo xakean edo Go jokatzeko gai direnak dira.
Adimen artifiziala arazoak konpontzeko modu berri bat da, eta horien barruan sartzen dira sistema adituak, roboten maneiua eta kontrola eta prozesadoreak. Sistema horietan, ezagutza integratzen saiatzen da, beste era batera esanda, bere programa propioa idazteko gai den sistema adimendun bat. Arlo jakin bati buruzko ezagutza biltegiratzeko eta erabiltzeko gai den programazio-egitura gisa definitutako sistema aditu bat, ikasteko gaitasuna dakarrena. Era berean, makinek algoritmoak erabiltzeko, datuetatik ikasteko eta erabakiak hartzerakoan ikasitakoa gizaki batek egingo lukeen moduan erabiltzeko gaitasuntzat har daiteke adimen artifiziala; gainera, adimen artifizialaren ikuspegi nagusietako bat ikaskuntza automatikoa da, eta, beraz, ordenagailuek edo makinek ikasteko gaitasuna dute horretarako programatuta egon gabe.
Takeiasen arabera (2007), AA zientzia konputazionalen adar bat da, gizakien berezko jarduerak egiteko gai diren zenbaketa-ereduak aztertzeaz arduratzen dena, haien bi ezaugarri nagusitan oinarrituta: arrazoiketa eta jokabidea.
1956an, John McCarthyk «adimen artifiziala» esamoldea sortu zuen, eta honela definitu zuen: «makina adimendunak egiteko zientzia eta asmamena, batez ere konputazio adimenduneko programak».
Era berean, hainbat pertzepzio eta ekintza mota daude, sentsore fisiko eta sentsore mekanikoen bidez lortu eta ekoitzi daitezkeenak, hurrenez hurren, makinetan, pultsu elektriko edo optikoen bidez konputagailuetan, bai eta software baten eta software-ingurunearen bit-sarreren eta -irteeren bidez ere.
Adimen artifizialaren jatorria psikologian bertan datza, zehazki giza pentsamenduaren modelo bat sortzeko nahian. Adimen artifizialaren kontzeptua aspaldidanik gizakiak amestu izan duen ahalmen batekin erlazionaturik dago, materia bizigabea bizteko ahalmenarekin. Pragako Golemaren kondairan eta modernoagoa den Frankenstein doktorearen kontakizunean nabari liteke antzekorik. Hala ere, dakigunez Samuel Butler, Zeelanda Berrian bizitako idazle Britaniarra izan zen gaur egun darabilgun kontzeptuaren lehen zantzuak adierazi zituena, 1863an Darwin makinen artean izeneko idazki batean kontzientzia mekanikoa aipatu zuenean.
Hala dirudien arren adimen artifiziala ez da soilik robotikarekin zerikusia duen zientzia; adimen kolektiboaren azterketa izan da adimen artifizialaren sustatzaileetako bat soziologiak, biologiak, zientzia politikoek, marketinak... aspaldidanik aurreikusi nahi izan dituzte gizakien joerak eta erabakiak horretarako adimen artifiziala modelo bezala erabili litekeelarik.
Lehen ekimenak
1940ko hamarkadan hasi ziren adimen artifiziala informatikaren bidez lortzeko lehen ekimenak, ildo horretatik agertu ziren ere lehen idazki eta artikuluak besteak beste: 1943. urtean Warren McCulloch eta Walter Pittsek argitaratutako Logika kalkuluak, ideia Immanenteak eta Nerbioen Aktibitateak edota 1950. urtean azaldu ziren Alan TuringenMakinaria konputagailua eta inteligentzia eta J.C.R. Licklidereen Izaki-konputagailu sinbiosia.
Honen aurretik, 1948. urtean, John von Neumann eta E.T. Jaynesek jada honakoa esana zioten makinek pentsatzeko ahalmena sekula lortuko ez zutela esan zuen ikasle bati "Makinek egin ezin dituzten gauzak badirelakoan jarraitzen duzu. Argi eta zehatz esango bazenit zer den egin ezin dezaketena orduan diozun hori egiteko ahalmena duen makina bat eraikiko dut!".
1969an McCarthyk eta Hayesek frame arazoei buruzko aurkikuntza bat egin zuten eta beraien idazlanetan honako hau jarri zuten, "Filosofia arazo batzuk Adimen Artifizialetik eratorriak dira".
Inteligentzia artifizialaren aurkikuntzak
1950. urtean Allen Newell eta Herbert Simonek Carnegie Mellon Unibertsitateko laborategian adimen artifiziala lortzeko lehen saiakerak burutu zituzten. Hauen ondoren 1959. urtean McCarthy eta Marvin Minskyk ere MITko Adimen Artifizial Laborategian zenbait lan egin zuten.
Historikoki, bi ikerketa-bide daude adimen artifizialaren arloan - "neats"ena eta "scruffies"ena. "Neat", klasikoa edo sinbolikoa dugu AAren arloan, orokorrean, manipulazio sinbolikoz inguraturik dago eta kontzeptu abstraktuez, eta hau da gehien erabiltzen den metodologia adituen esanetan sistemen arloan. Paralelikoki "scruffy", edo "konexionista", gehiago hurbiltzen da, neurona-sare artifizialera. Hauek dira adibiderik onenak, sistema eta antolakuntza berriak eraikiz adimenera "inguratzen" saiatzen direnak eta prozesu automatiko eta sistematiko asko hobetuz arazo hau amaitzen dute dena osatuz. Biak nahikotxo hurbiltzen dira IAren historiara. 1960 eta 1970. urtean "scruffy" hurbildu zen "background"era, baina interesa gauzatu zen 1980. urtean "neat"en mugak argi geratu zirenean. Bestalde, gaur egun biak erabiltzen dira bata bestea osatuz hobeto funtzionatzen baitute.
Adimen artifiziala eta informatika
Adimen artifizialaren hasiera ordenagailuenarekin batera izan zen, 1956. urtean John McCarthyk adimen artifizialaren terminoa sortu zuen, eta ordutik ondorengo etapak ezberdintzen dira:
Hasierako azterketa zientifikoaren etapa ( 1956-1970 ). Bilaketa heuristikoaren metodoak eta dedukzio-automatikoarenak ere agertzen dira. Lehenengoek problemak grafikoez adierazi eta ebazteko teknika heuristikoak erabiltzen dituzte, eta bigarrenek, logikan oinarritutakoak. Etapa honetan agertu zen LISP hizkuntza adimen artifizialerako egokituta, eta baita ere sare semantikoak ezagupena adierazteko.
Prototipoen etapa ( 1970-1980 ): Aurreko etapako fundamentu teorikoek prototipo batzuen agerraldia eragintzen dute: STRIPS proiektua roboten planifikazioan, gizakien hizkuntza ulertzeko MARCO ezagupenen adierazpen-paradigma, lehenengo sistema adituak ( MYCIN, gaixotasunen diagnostikorako...) eta 1972 urtean programazio logikoaren planteamendua, PROLOG hizkuntza sortarazi zuena.
Difusio-etapa. Oraingoa. Ezagupen-ingeniariaren sakabanatzea ematen da. Adimen artifizialera dedikaturiko enpresak agertzen dira, aplikazio honetarako erremintak merkatura zabaltzen. Aurrerapen handiak ematen dira sistema adituetan eta datu-baseentzako hizkuntza naturalean, eta ez hain handiak ikusmen artifizial eta robotikan.
Helburuak
Adimena simulatzeko (edo sortzeko) arazo orokorra azpi-arazoetan banatu da. Horiek ikertzaileek sistema adimendun batek bistaratzea espero duten ezaugarri edo gaitasun partikularrak dira. Jarraian deskribatutako ezaugarriek arreta gehien jaso dutenak dira, eta AA ikerketaren esparrua hartzen dute
Arrazoiketa, arazoak konpontzea
Puzzleak ebazten dituztenean edo dedukzio logikoak egiten dituztenean gizakiek erabiltzen duten pausoz pausoko arrazonamendua imitatzen zuten algoritmoak garatu zituzten lehen ikertzaileek 1980ko eta 1990eko hamarkadaren amaieran, ziurgabetasuna edo informazio osatugabea lantzeko metodoak garatu ziren, probabilitatea eta ekonomia kontzeptuak erabiliz.
Algoritmo horietako asko ez dira nahikoak arrazoimen-arazo handiak ebazteko leherketa konbinatzailea jasaten dutelako: esponentzialki moteltzen zihoazen arazoak handitu ahala.
Gizakiek ere oso gutxitan erabiltzen dute AAren ikerketa goiztiarrek modelatu dezaketen urratsez urratseko dedukzioa. Arazo gehienak judizio azkarrak eta intuitiboak erabiliz ebazten dituzte. Arrazoiketa zehatza eta eraginkorra konpondu gabeko arazoa da.
Ezagutzaren irudikapena
Ontologiak ezagutza domeinu bateko kontzeptu multzo gisa eta kontzeptu horien arteko erlazioak adierazten du.
Ezagutzaren irudikapenak eta ezagutzaren ingeniaritzak AA programek galderei modu adimentsuan erantzutea eta mundu errealeko gertakariei buruzko dedukzioak egitea ahalbidetzen dute. Ezagutza formalaren irudikapenak edukietan oinarritutako indexazio eta berreskurapenean erabiltzen dira eszenaren interpretazioan, erabaki klinikoen laguntzan, ezagutzaren aurkikuntzan (datu-base handietako inferentzia interesgarriak eta ekingarriak ateratzea) eta beste arlo batzuetan.
Ezagutza-oinarria programa batek erabil dezakeen forma batean irudikatzen den ezagutza-multzo bat da. Ontologia ezagutza-eremuak erabiltzen dituen objektu, erlazio, kontzeptu eta propietateen multzoa da. Ezagutza oinarriek honako gauzak irudikatu behar dituzte: objektuak, propietateak, kategoriak eta objektuen arteko erlazioak; egoerak, gertaerak, aldarteak eta denbora; kausak eta ondorioak; ezagutzari buruzko ezagutza (besteek dakigunari buruz dakiguna); arrazoibide lehenetsia (gizakiak bere gain hartzen dituen gauzak egiazkoak dira bestela esan arte, eta egia izaten jarraituko dute beste gertakari batzuk aldatzen ari direnean ere), eta beste hainbat alderdi eta jakintza-eremuak.
Ezagutza irudikapenaren arazo zailenen artean, honako hauek dira: zentzu komunaren ezagutzaren zabalera (gertakari atomikoen ezagutza duen batezbesteko pertsona multzoa izugarria da) eta zentzu arruntaren ezagutza gehienen forma azpisinbolikoa (jendeak dakienaren zati handi bat ez da hitzez adieraz ditzakeen gertakari edo adierazpen gisa adierazten), eta zentzu arruntaren ezagutza gehienen forma azpisinbolikoa (jendeak dakienaren zati handi bat ez da ahoz adieraz litezkeen "gertakari" edo "adierazpen" gisa irudikatuta).
Ezagutza eskuratzea AA aplikazioetarako, ezagutza lortzea da arazorik larriena. AA modernoak ezagutzak Interneten biltzen ditu (Wikipedia barne). Ezagutza bera informazioa argitaratu zuten boluntarioek eta profesionalek bildu zuten (bere lana AA enpresei ematea adostuta edo ez). Iturri kolektibo teknika horrek ez du bermatzen ezagutza zuzena edo fidagarria denik. Hizkuntz eredu handien ezagutza (adibidez, Chat-GPT) ez da oso fidagarria, desinformazioa eta faltsukeriak ematen baititu (haluzinazio hitzez ezagutua). AA aplikazio moderno hauetarako, ezagutza zehatza ematea konpondu gabeko arazoa da.
Plangintza eta erabakiak hartzea
Agentea munduan ekintzak hautematen eta egiten dituen edozer da. Agente arrazionalak helburuak edo lehentasunak ditu, eta horiek gauzatzeko ekintzak egiten ditu. Plangintza automatizatuan, agenteak helburu zehatz bat du. Erabakiak hartzeko modu automatizatuan, agenteak lehentasunak ditu: egon nahiko lukeen egoera batzuk daude, eta saihestu nahiko lituzkeen egoera batzuk daude. Erabakiak hartzen duen agenteak egoera bakoitzari (erabilgarritasuna deitzen zaio) zenbaki bat esleitzen dio agenteak zenbat nahiago duen neurtzen duena. Ekintza posible bakoitzerako, «espero den erabilgarritasuna» kalkula dezake: ekintzaren emaitza posible guztien erabilgarritasuna, emaitza gertatzeko probabilitatearen arabera haztatuta. Ondoren, espero den erabilgarritasun handiena duen ekintza aukera dezake.
Plangintza klasikoan, agenteak badaki zehatz-mehatz zein izango den edozein ekintzaren eragina. Mundu errealeko arazo gehienetan, ordea, litekeena da agentea ziur ez izatea zein egoeratan dagoen (ezezaguna edo behatu ezina da) eta litekeena da ziur ez jakitea zer gertatuko den ekintza posible bakoitzaren ondoren (ez da determinista). Ekintza bat aukeratu behar du probabilitatezko asmakizun bat eginez, eta, ondoren, egoera berriro ebaluatu, ekintzak funtzionatu duen ikusteko. Arazo batzuetan, agentearen hobespenak zalantzazkoak izan daitezke, batez ere tartean dauden beste agente edo gizaki batzuk badaude. Horiek ikas daitezke (adibidez, alderantzizko errefortzuaren ikaskuntzarekin) edo agenteak informazioa bilatu dezake bere lehentasunak hobetzeko. Informazio-balioaren teoria esplorazio- edo esperimentazio-ekintzen balioa neurtzeko erabil daiteke. Etorkizuneko ekintzen eta egoeren espazioa ezinezkoa da normalean, beraz, eragileek ekintzak egin, eta egoerak ebaluatu behar dituzte azken emaitza zein izango den ziur egon gabe.
Markov-en erabaki-prozesu batek ekintza jakin batek egoera modu jakin batean aldatzeko probabilitatea deskribatzen duen trantsizio-eredu bat du, eta egoera bakoitzaren erabilgarritasuna eta ekintza bakoitzaren kostua ematen dituen sari-funtzioa. Politika batek erabaki bat egoera posible bakoitzarekin lotzen du. Politika kalkula liteke (adibidez, iterazio bidez); heuristikoa izan daiteke, edo ikasi daiteke.
Jokoen teoriak elkarreraginean dauden hainbat agenteren jokaera arrazionala deskribatzen du, eta beste agente batzuk inplikatzen dituzten erabakiak hartzen dituzten AA programetan erabiltzen da.
Ikasketa automatikoa zeregin jakin batean beren errendimendua automatikoki hobetu dezaketen programen azterketa da. AAren parte izan da hasieratik.
Ikaskuntza automatikoko hainbat mota daude. Gainbegiratu gabeko ikaskuntzak datu-jario bat aztertzen du; ereduak aurkitzen ditu, eta iragarpenak egiten ditu beste inongo orientaziorik gabe. Gainbegiratutako ikaskuntzak gizaki batek sarrerako datuak etiketatu behar ditu lehenik, eta bi mota nagusitan daude: sailkapena (non programak sarrera zein kategoriari dagokion iragartzen ikasi behar duen) eta erregresioa (non programak zenbakizko sarreran oinarritutako funtzio numeriko bat ondorioztatu behar duen). Indartze-ikaskuntzan, agentea erantzun onengatik saritzen da, eta txarengatik zigortzen da. Agenteak onak gisa sailkatutako erantzunak aukeratzen ikasten du. Transferentzia ikaskuntza arazo batetik lortutako ezagutza arazo berri bati aplikatzen zaionean da. Ikaskuntza sakonakneurona-sare artifizialak erabiltzen ditu ikaskuntza mota guztietarako.
Ikaskuntza konputazionalaren teoriak ikasleak konplexutasun konputazionalaren arabera ebalua ditzake, laginaren konplexutasunaren arabera (zenbat datu behar diren) edo beste optimizazio nozio batzuen arabera.
Bideo hau Ikusgela proiektuaren parte da. Bideoak dituzten artikulu guztiak ikus ditzakezu hemen klik eginez gero.Hizkuntza prozesamendu naturala: komunikazioaren iraultza?
NLPrako ikaskuntza sakoneko teknika modernoak hitzen barneratzea (hitz bat bestearen ondoan zenbat maiz agertzen den), transformatzaileak (testuan ereduak aurkitzen dituena) eta beste batzuk dira. 2019an, aurrez prestatutako eraldatzaile sortzaileak (edo GPT ingelesez) hizkuntza-ereduak testu koherentea sortzen hasi ziren, eta 2023rako eredu horiek giza-mailako puntuazioak lortu ahal izan zituzten barraren azterketan, SAT, GRE, eta mundu errealeko beste hainbat aplikaziotan.
Pertzepzioa
Makinen pertzepzioa sentsoreen (adibidez, kamerak, mikrofonoak, hari gabeko seinaleak, lidar aktiboa, sonarra, radarra eta ukimenezko sentsoreak) munduaren alderdiak ondorioztatzeko gaitasuna da. Ordenagailu bidezko ikusmena ikusizko sarrera aztertzeko gaitasuna da.
Ikusmen artifiziala
Ikusmen artifizialaren helburua formak eta objektuak identifikatzeko gai diren sistema batzuk garatzea da. Bi dimentsioetako arloan arrakasta batzuk lortu izan dira, baina zailtasun handiagoak daude 3D kasuan. Bere aplikazioa batez ere robotikan ematen da.
Robotika
Robotak osatzen dituzten sistemen ikasketa alde batetik, eta beste alde batetik, euren adimenarena. Robot bat bere inguruko egoera identifikatu eta uneko egoera beste egoera objektibo batera pasatzeko gai den sistema bat da, horretarako zeregin batzuk planifikatzen. Oso konplexuak dira bai identifikazioa bai zereginen planifikazioa egoeraz aldatzeko.
Sistema adituak
Sistema adituek normalean gizaki adituek ebazten dituen problemak ebazten dituzte, etekin antzekoaz. Horretarako ezagupen basea handia behar dute eremuari buruz, mekanismo bat ezagupen horiek aplikatzeko eta beste bat erabiltzaileari azaltzeko zer egin den. Jakintza berria sistemara gehitzeko kapaz izan behar dute, eta baita ere lan egiteko nahiz eta jakintza osoa ez izan.
Irakaskuntza
Zaila da aurreikustea adimen artifizialak zelako ekarpenak ekarriko dituen datozen urteotan gizakion ikaskuntza bideetan.
↑Sistema adituek ezagutza atzemateko eraginkorrak ez zirela frogatu zuten arrazoien artean dago
↑Agente arrazionalaekonomian, filosofian eta adimen artifizial teorikoan erabiltzen den termino orokorra da. Bere jokabidea helburuak betetzera bideratzen duen edozeri erreferentzia egin diezaioke, hala nola pertsona bati, animaliei, korporazio bati, nazio bati edo, AAren kasuan, programa informatiko bati.
↑Alan Turing discussed the centrality of learning as early as 1950, in his classic paper "Computing Machinery and Intelligence". 1956an, Dartmouth AA jatorrizko udako konferentzian, Ray Solomonoff-ek gainbegiratu gabeko ikaskuntza automatiko probabilistikoari buruzko txosten bat idatzi zuen: An Inductive Inference Machine.
2023an gehien erabiltzen diren bi testuliburuak (Ikus Programa Irekia) dira:
(Ingelesez)Russell, Stuart J; Norvig, Peter. (2021). Artificial Intelligence: A Modern Approach, 4. ed.. Pearson, Hoboken ISBN978-0134610993.. LCCN 20190474
(Ingelesez)Rich, Elaine; Knight, Kevin; Nair, Shivashankar B. (2010). Artificial Intelligence. (3.. argitaraldia) Tata McGraw Hill India (New Delhi) ISBN978-0070087705..
Hauek izan ziren 2008an gehien erabili ziren lau AA testu-liburuak:
Habibi, Aghdam, Hamed. (2017). Guide to convolutional neural netlanas : a practical application to traffic-sign detection and classification. ISBN978-3319575490. OCLC.987790957.
Williams, R. J.; Zipser, D.. (1994). «Gradient-based learning algorithms for recurrent netlanas and their computational complexity» Back-propagation: Theory, Architectures and Applications.
Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron. (2016). Deep Learning. MIT Press..
Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V. et al.. (2012). «Deep Neural Netlanas for Acoustic Modeling in Speech Recognition – The shared views of four research groups» IEEE Signal Processing Magazine: 82–97. doi:10.1109/msp.2012.2205597. Bibcode: 2012ISPM...29...82H..
Linnainmaa, Seppo. (1970). The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors.. Univ. Helsinki, 6–7. or..
Griewank, Andreas. (2012). «Who Invented the Reverse Mode of Differentiation? Optimization Stories» Documenta Matematica, Extra Volume ISMP: 389–400..
Werbos, Paul. (1974). Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences. Harvard University.
(Ingelesez)Merkle, Daniel; Middendorf, Martin. (2013). Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques. Springer Science & Business Media ISBN978-1-4614-6940-7..
Galvan, Jill. (1 January 1997). «Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"» Science Fiction Studies: 413–429..
McCauley, Lee. (2007). «AI armageddon and the three laws of robotics» Ethics and Information Technology: 153–164. doi:10.1007/s10676-007-9138-2..
Buttazzo, G.. (July 2001). «Artificial consciousness: Utopia or real possibility?» Computer: 24–30. doi:10.1109/2.933500..
Anderson, Susan Leigh. (2008). «Asimov's "three laws of robotics" and machine metaethics.» AI & Society: 477–493. doi:10.1007/s00146-007-0094-5..
Frey, Carl Benedikt; Osborne, Michael A. (1 January 2017). «The future of employment: How susceptible are jobs to computerisation?» Technological Forecasting and Social Change: 254–280. doi:10.1016/j.techfore.2016.08.019. ISSN0040-1625..
Arntz, Melanie; Gregory, Terry; Zierahn, Ulrich. (2016). «The risk of automation for jobs in OECD countries: A comparative analysis» OECD Social, Employment, and Migration lanaing Papers 189.
Goodman, Bryce; Flaxman, Seth. (2017). «EU regulations on algorithmic decision-making and a 'right to explanation'» AI Magazine: 50. doi:10.1609/aimag.v38i3.2741..
Iphofen, Ron; Kritikos, Mihalis. (3 January 2019). «Regulating artificial intelligence and robotics: ethics by design in a digital society» Contemporary Social Science: 170–184. doi:10.1080/21582041.2018.1563803. ISSN2158-2041..
Buiten, Miriam C. (2019). «Towards Intelligent Regulation of Artificial Intelligence» European egunkaria of Risk Regulation: 41–59. doi:10.1017/err.2019.8. ISSN1867-299X..
Wallach, Wendell. (2010). Moral Machines. Oxford University Press.
Aletras, N.; Tsarapatsanis, D.; Preotiuc-Pietro, D.; Lampos, V.. (2016). «Predicting judicial decisions of the European Court of Human Rights: a Natural hizkuntza Processing perspective» PeerJ Computer Science: e93. doi:10.7717/peerj-cs.93..
Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J.. (December 2016). «Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age» IEEE Transactions on Robotics: 1309–1332. doi:10.1109/TRO.2016.2624754..
Cambria, Erik; White, Bebo. (May 2014). «Jumping NLP Curves: A Review of Natural hizkuntza Processing Research » IEEE Computational Intelligence Magazine: 48–57. doi:10.1109/MCI.2014.2307227..
Omohundro, Steve. (2008). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA..
McGarry, Ken. (1 December 2005). «A survey of interestingness measures for knowledge discovery» The Knowledge Engineering Review: 39–61. doi:10.1017/S0269888905000408..
Bertini, M; Del Bimbo, A; Torniai, C. (2006). Automatic annotation and semantic retrieval of video sequences using multimedia ontologies. ACM, 679–682 or..
Fearn, Nicholas. (2007). The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers. Grove Press ISBN978-0-8021-1839-4..
Funding a Revolution: Government Support for Computing Research. National Academy Press.
Newell, Allen; Simon, H. A.. (1976). «Computer Science as Empirical Inquiry: Symbols and Search» Communications of the ACM: 113–126. doi:10.1145/360018.360022...
Cukier, Kenneth, "Ready for Robots? How to Think about the Future of AI", Foreign Affairs, vol. 98, no. 4 (July/August 2019), pp. 192–98. George Dyson, historian of computing, writes (in what might be called "Dyson's Law") that "Any system simple enough to be understandable will not be complicated enough to behave intelligently, while any system complicated enough to behave intelligently will be too complicated to understand." (p. 197.) Computer scientist Alex Pentland writes: "Current AI machine-learningalgorithms are, at their core, dead simple stupid. They lana, but they lana by brute force." (p. 198.)
Domingos, Pedro, "Our Digital Doubles: AI will serve our species, not control it", Scientific American, vol. 319, no. 3 (September 2018), pp. 88–93.
Gertner, Jon. (2023) "Wikipedia's Moment of Truth: Can the online encyclopedia help teach A.I. chatbots to get their facts right — without destroying itself in the process?" New York Times Magazine (July 18, 2023) online
Johnston, John (2008) The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI, MIT Press.
Gary Marcus, "Artificial Confidence: Even the newest, buzziest systems of artificial general intelligence are stymmied by the same old problems", Scientific American, vol. 327, no. 4 (October 2022), pp. 42–45.
Eka Roivainen, "AI's IQ: ChatGPT aced a test but showed that intelligence cannot be measured by IQ alone", Scientific American, vol. 329, no. 1 (July/August 2023), p. 7. "Despite its high IQ, ChatGPT fails at tasks that require real humanlike reasoning or an understanding of the physical and social world.... ChatGPT seemed unable to reason logically and tried to rely on its vast database of... facts derived from online texts."
Ashish Vaswani, Noam Shazeer, Niki Parmar et al. "Attention is all you need." Advances in neural information processing systems 30 (2017). Seminal paper on transformers.