Nikdy v historii lidstva nebylo o Umělá inteligence tolik informací jako dnes díky internetu. Tento přístup ke všemu, co se týká Umělá inteligence, však není vždy snadný. Přesycení, špatná použitelnost a obtížné rozlišení správných a nesprávných informací o Umělá inteligence jsou často obtížně překonatelné. To nás motivovalo k vytvoření spolehlivého, bezpečného a efektivního webu.
Bylo nám jasné, že k dosažení našeho cíle nestačí mít správné a ověřené informace o Umělá inteligence. Vše, co jsme o Umělá inteligence shromáždili, muselo být také prezentováno jasným a čitelným způsobem, ve struktuře, která usnadňuje uživatelský zážitek, s čistým a efektivním designem a která upřednostňuje rychlost načítání. Jsme přesvědčeni, že se nám to podařilo, i když se stále snažíme o drobná zlepšení. Pokud se vám to, co jste o Umělá inteligence zjistili, zdálo užitečné a cítili jste se dobře, budeme velmi rádi, když se na wikious.com vrátíte, kdykoli budete chtít a potřebovat.
Umělá inteligence (Artificial Intelligence, AI) je obor informatiky zabývající se tvorbou systémů řešících komplexní úlohy jako je rozpoznávání či klasifikace, např. v oblastech zpracování obrazu (ve formě pixelů) či zpracování psaného textu či mluveného jazyka (ve formě počítačového kódu), nebo plánování či řízení na základě zpracování velkých objemů dat.
Strojové učení je podoblastí umělé inteligence, zabývající se algoritmy, které umožňují počítačovému systému 'učit se'. Učením v daném kontextu rozumíme takovou změnu vnitřního stavu systému, která zefektivní schopnost přizpůsobení se změnám okolního prostředí. Strojové učení má široké uplatnění. Jeho techniky se využívají pro rozpoznávání a kompresi obrazů či akustických (např. rozpoznávání řeči) nebo elektrických (např. EKG, EEG) signálů, klasifikaci či segmentaci dat, předvídání vývoje časových řad (např. burzovních indexů), k rozpoznávání psaného textu či k filtrování spamu. V lékařství slouží k diagnostice onemocnění a v řízení pro podporu rozhodování.
Robotika je věda o robotech, jejich designu, výrobě a aplikacích. Robot může buď pomáhat, nebo dělat lidskou práci, popř. zajišťovat i komfort společnosti. Robotika úzce souvisí s elektronikou, mechanikou a aplikovaným softwarem.
Umělé neuronové sítě v umělé inteligenci jsou volně inspirovány odpovídajícími biologickými strukturami. Oproti nim jsou však značně zjednodušeny a používají jiné mechanismy učení, než jaké používá např. lidský mozek. Cílem totiž není věrně simulovat biologické struktury, ale především řešit praktické problémy. Neuronové sítě se používají mimo jiné pro rozpoznávání a kompresi obrazů či akustických (např. rozpoznávání řeči) nebo elektrických (např. EKG, EEG) signálů, klasifikaci či segmentaci dat, předvídání vývoje časových řad (např. burzovních indexů), k rozpoznávání psaného textu či k filtrování spamu. Tvorbou biologicky věrných modelů neuronů a neuronových sítí se zabývají výpočetní neurovědy, prohlubující znalosti o fungování informačních systémů (nervových soustav) živých organismů. Například Grossbergova neuronová síť vznikla původně jako simulace fyziologického modelu rozpoznávání vzorů na sítnici lidského oka.
Jde o vidění zobecněné: Zdaleka ne jen viditelným světlem, dokonce ani vůbec ne světlem, nýbrž třeba akusticky, obecně tedy echolokací.
Bayesovská síť je pravděpodobnostní model, který využívá grafovou reprezentaci pro zobrazení pravděpodobnostních vztahů mezi jednotlivými jevy. Využívá se pro určení pravděpodobnosti určitých jevů, přičemž vychází ze základu teorie pravděpodobnosti. Bayesovská síť je acyklický orientovaný graf, kde každý uzel odpovídá jedné náhodné veličině, přičemž každý graf typicky obsahuje několik veličin/uzlů. Všechny veličiny v grafu se vztahují k neznámému jevu, přičemž každá veličina je reprezentována jedním uzlem a větve (neboli vztahy) mezi uzly zobrazují pravděpodobnostní závislost mezi vybranými veličinami. Tyto závislosti se obvykle vypočítávají na základě statistických metod.
Expertní systém je počítačový program, který má za úkol poskytovat expertní rady, rozhodnutí nebo doporučit řešení v konkrétní situaci. Expertní systémy jsou navrženy tak, aby mohly zpracovávat nenumerické a neurčité informace a řešit tak úlohy, které nejsou řešitelné tradičními algoritmickými postupy. Expertní systém má dvě základní komponenty, které jsou na sobě relativně nezávislé. Řídící mechanismus pro odvozování závěrů a Bázi znalostí. V průběhu zpracovávání se k bázi znalostí přidávají dočasné informace o řešeném případu.
Data mining (dolování z dat či vytěžování dat) je analytická metodologie získávání netriviálních skrytých a potenciálně užitečných informací z dat. Někdy se chápe jako analytická součást dobývání znalostí z databází (Knowledge Discovery in Databases, KDD), jindy se tato dvě označení chápou jako souznačná. Často dochází také k překryvu s termínem data science, který bývá obvykle chápán šířeji než data mining. Data mining se používá v komerční sféře (například v marketingu při rozhodování, které klienty oslovit dopisem s nabídkou produktu), ve vědeckém výzkumu (například při analýze genetické informace) i v jiných oblastech (například při monitorování aktivit na internetu s cílem odhalit činnost potenciálních škůdců a teroristů).
Fuzzy logika je podobor matematické logiky odvozený od teorie fuzzy množin, v němž se logické výroky ohodnocují mírou pravdivosti. Liší se tak od klasické výrokové logiky, která používá pouze dvě logické hodnoty - nepravdu a pravdu, tj. nulu a jedničku. Fuzzy logika může operovat se všemi hodnotami z intervalu ⟨0,1⟩, kterých je nekonečně mnoho. Fuzzy logika může být pro řadu reálných rozhodovacích úloh vhodnější než klasická logika, protože usnadňuje návrh složitých řídicích systémů.
Evoluční algoritmy se užívají k nalezení dostatečně kvalitního řešení optimalizačních úloh v dostatečně krátkém čase. Mezi evoluční algoritmy inspirované přírodou se zahrnuje celé spektrum optimalizačních heuristických technik, např. genetické algoritmy či simulované žíhání. Heuristiky můžeme popsat jako zkratkovitý postup prohledávání prostoru řešení bez záruky správného výsledku, nicméně jsou zbaveny celé řady neduhů konvenčních optimalizačních metod, jako např. požadavek spojitosti či diferencovatelnosti objektivní resp. vazební funkce, respektování omezujících podmínek, uvíznutí v mělkém lokálním minimu atd. Na druhou stranu však je při jejich aplikaci zapotřebí nastavení jistých volných parametrů, které je nutné „naladit“ v závislosti na konkrétním optimalizačním problému.
Multiagentní systém je simulované prostředí se síťovým charakterem, v němž dochází k interakci (po větvi sítě) agentů (uzlů sítě) mezi sebou a / nebo s prostředím, ve kterém se nacházejí. Tito agenti řeší společně problémy, které přesahují znalosti každého z nich. Mezi multiagentní systémy se řadí např. strategie ptačího hejna (Particle Swarm Optimization (PSO)) či strategie mravenčí kolonie (Ant Colony Optimization (ACO)).
Zvláště při vytváření algoritmů na řešení klasických her (šachů, dámy) se jeví účelné zadefinovat si množinu stavů, do kterých se můžeme ve hře dostat, přípustné tahy neboli přechody mezi stavy a počáteční a koncové pozice. Hledáme pak cestu od počátečních stavů ke koncovým stavům, které znamenají náš úspěch. Jelikož mohou být stavové prostory rozsáhlé (např. ve hře go) a v některých případech i nekonečné, je třeba volit chytré metody ořezávání nevhodných cest a ohodnocování pozic.
Počítačové zpracování přirozeného jazyka (Natural Language Processing, NLP) se zabývá analýzou, transformací či generování textů nebo mluveného slova. Aplikacemi NLP jsou např. strojový překlad, automatické zodpovídání dotazů (pro chatboty a podobně), dolování z textu, výtah z textu (automatická sumarizace), automatická korektura textu, extrakce informací z korpusů textů, generování přirozeného jazyka, rozpoznávání řeči a její syntéza. Kolem roku 2010 toto pole v zásadě ovládly technologie založené na hlubokém učení, jež zpravidla vykazují vyšší kvalitu než starší technologie založené např. na lingvistické analýze textu.
EU zvažuje zakázat či omezit umělou inteligenci při identifikaci lidí na veřejnosti.
Problém zákazu diskriminace je v tom, že diskriminace je chování, preference určitých hodnot, kategorií či parametrů, které běžně lidé volí, bez toho, aniž by si toho byli vědomi. Často je toto diskriminační chování objeveno, až když se na základě dat z takového chování učí umělá inteligence. Tento problém se projevil např. v oddělení lidských zdrojů společnosti Amazon, jejichž systém vyhodnotil pohlaví jako jeden z výběrových parametrů a životopisy žen hodnotil tak, že jim dával záporné body. To bylo proto, že pro učení byla použita data, která často mapovalal technické pozice, na které se častěji hlásili muži.
V průmyslu může umělá inteligence pomáhat různými způsoby:
Isaac Asimov věnoval značnou část své povídkové tvorby (sci-fi) tématům robotické inteligence. Jeho povídková sbírka Já, robot (1950), stejně jako povídka Dvěstěletý člověk (1976), byla zfilmována. Polský autor Stanisław Lem se zabýval filosofickými aspekty inteligence u nelidí ve svých knihách Solaris (1961, zfilmována dvakrát) a Kyberiáda (1965). Některé aspekty strojové inteligence rozebral Arthur Charles Clarke v knize Golem XIV (1968) nebo v knize 2001: Vesmírná odysea (1968) kde se zabýval situací, kdy se umělá inteligence obrátí proti člověku, neboť jej vyhodnotí jako překážku k úspěšnému dokončení mise, tj. své nejvyšší priority. Mezi vlivná kultovní díla patří například filmy Blade Runner (1982), Terminátor (1984), Matrix (1999). Velká část publikací současného sci-fi kyberpunku se váže k prolínání vlastností lidských a strojových a k vyrovnávání se s myšlenkou inteligentního stroje, například v knize Neuromancer Williama Gibsona.