Ohjelmointi

Lyhyt historia tekoälystä

Tekoälyn alkuaikoina atk-tutkijat yrittivät luoda ihmismielen piirteitä tietokoneessa. Tämän tyyppinen älykkyys on tieteiskirjallisuutta - koneita, jotka ajattelevat enemmän tai vähemmän kuin me. Tämän tyyppistä älykkyyttä kutsutaan yllättäen ymmärrettävyydeksi. Tietokonetta, jolla on ymmärrettävyys, voidaan käyttää tutkimaan, miten ajattelemme, opimme, arvioimme, havaitsemme ja toteutamme henkisiä toimia.

Varhainen ymmärrettävyyden tutkimus keskittyi todellisen maailman ja mielen (kognitiivisten tutkijoiden alueelta) mallintamiseen tietokoneessa. On huomattavaa, kun otetaan huomioon, että nämä kokeet tehtiin melkein 60 vuotta sitten.

Varhaiset älykkyysmallit keskittyivät deduktiiviseen päättelyyn johtopäätösten tekemiseksi. Yksi varhaisimmista ja tunnetuimmista A.I. Tämän tyyppisiä ohjelmia oli logiikkateoreetikko, joka kirjoitettiin vuonna 1956 jäljittelemään ihmisen ongelmanratkaisutaitoja. Logiikkateoreetikko osoitti pian 38: n 52: sta ensimmäisestä 52 lauseesta Principia Mathematica, itse asiassa yhden lauseen parantaminen prosessissa. Ensimmäistä kertaa osoitettiin selvästi, että kone pystyi suorittamaan tehtäviä, joiden katsottiin tähän asti vaativan älykkyyttä ja luovuutta.

Pian tutkimus kääntyi kohti erityyppistä ajattelua, induktiivista päättelyä. Induktiivinen päättely on se, mitä tutkija käyttää tutkittaessa tietoja ja yrittäessään esittää hypoteesin sen selittämiseksi. Tutkiakseen induktiivista päättelyä tutkijat loivat kognitiivisen mallin, joka perustui NASA: n laboratoriossa työskenteleviin tutkijoihin ja auttoi heitä tunnistamaan orgaaniset molekyylit orgaanisen kemian tuntemuksensa avulla. Dendral-ohjelma oli ensimmäinen todellinen esimerkki tekoälyn toisesta piirteestä, instrumentaalisuus, joukko tekniikoita tai algoritmeja induktiivisen päättelytehtävän suorittamiseksi, tässä tapauksessa molekyylin tunnistamiseksi.

Dendral oli ainutlaatuinen, koska se sisälsi myös ensimmäisen tietopohjan, joukon jos / sitten sääntöjä, jotka sieppasivat tutkijoiden tietämyksen, käytettäväksi kognitiivisen mallin rinnalla. Tätä tiedon muotoa kutsutaan myöhemminasiantuntijajärjestelmä. Molempien "älykkyyksien" saatavuus yhdessä ohjelmassa antoi tietojenkäsittelytieteille mahdollisuuden kysyä: "Mikä tekee tietyistä tutkijoista paljon parempia kuin toiset? Onko heillä ylivertaisia ​​kognitiivisia taitoja vai enemmän tietoa? "

1960-luvun lopulla vastaus oli selvä. Dendralin suorituskyky riippui melkein kokonaan asiantuntijoilta saatujen tietojen määrästä ja laadusta. Kognitiivinen malli liittyi vain heikosti suorituskyvyn parantamiseen.

Tämä oivallus johti merkittävään paradigman muutokseen tekoälyyhteisössä. Tietotekniikka nousi tieteenalaksi mallinnamaan tiettyjä ihmisasiantuntemuksen alueita asiantuntijajärjestelmien avulla. Ja heidän luomansa asiantuntijajärjestelmät ylittivät usein minkä tahansa yksittäisen ihmisen päätöksentekijän suorituskyvyn. Tämä merkittävä menestys herätti suurta innostusta tekoälyyhteisön, armeijan, teollisuuden, sijoittajien ja suositun lehdistön asiantuntijajärjestelmiin.

Asiantuntijajärjestelmien menestyessä kaupallisesti tutkijat kiinnittivät huomiota tekniikoihin näiden järjestelmien mallintamiseksi ja niiden joustavuuden lisäämiseksi ongelmakohteissa. Tänä aikana tekoälyyhteisö kehitti objektisuuntautuneen suunnittelun ja hierarkkiset ontologiat, ja muut tietokoneyhteisön osat hyväksyivät ne. Nykyään hierarkkiset ontologiat ovat ytimessä tietokaavioissa, jotka ovat nousseet uudelleen viime vuosina.

Kun tutkijat päättivät tietämyksen esitysmuotoon, joka tunnetaan nimellä "tuotantosäännöt", ensimmäisen asteen predikaattilogiikan muoto, he huomasivat, että järjestelmät voivat oppia automaattisesti; ts. järjestelmät kirjoittavat tai kirjoittavat itse säännöt uudelleen parantaakseen suorituskykyä lisätietojen perusteella. Dendralia muokattiin ja annettiin kyky oppia massaspektrometrian säännöt kokeiden empiiristen tietojen perusteella.

Niin hyviä kuin nämä asiantuntijajärjestelmät olivatkin, niillä oli rajoituksia. Ne rajoittuivat yleensä tiettyyn ongelma-alueeseen, eivätkä ne voineet erottaa useasta uskottavasta vaihtoehdosta tai käyttää tietoa rakenteesta tai tilastollisesta korrelaatiosta. Joidenkin näiden ongelmien ratkaisemiseksi tutkijat lisäsivät varmuuskertoimia - numeerisia arvoja, jotka osoittivat, kuinka todennäköinen tietty tosiasia on totta.

AI: n toisen paradigman muutoksen alku tapahtui, kun tutkijat huomasivat, että varmuuskertoimet voidaan kääriä tilastollisiin malleihin. Tilastoja ja Bayesin päätelmiä voitaisiin käyttää mallinnamaan toimialan asiantuntemusta empiiristen tietojen perusteella. Tästä eteenpäin tekoälyä hallitsisi yhä enemmän koneoppiminen.

On kuitenkin ongelma. Vaikka koneoppimistekniikat, kuten satunnaiset metsät, hermoverkot tai GBT: t (gradienttikorostetut puut) tuottavat tarkkoja tuloksia, ne ovat melkein läpäisemättömiä mustia laatikoita. Ilman ymmärrettävää tulosta koneoppimismallit ovat monessa suhteessa vähemmän hyödyllisiä kuin perinteiset mallit. Esimerkiksi perinteisellä tekoälymallilla lääkäri saattaa kysyä:

  • Miksi malli teki tämän virheen?
  • Onko malli puolueellinen?
  • Voimmeko osoittaa lainsäädännön noudattamisen?
  • Miksi malli on eri mieltä verkkotunnuksen asiantuntijan kanssa?

Myös ymmärrettävyyden puutteella on vaikutuksia koulutukseen. Kun malli rikkoutuu eikä pysty selittämään miksi, se vaikeuttaa korjaamista. Lisätäänkö lisää esimerkkejä? Millaisia ​​esimerkkejä? Vaikka on olemassa joitain yksinkertaisia ​​kompromisseja, joita voimme tehdä väliaikaisesti, kuten vähemmän tarkkojen ennusteiden hyväksyminen vastineeksi ymmärrettävyydestä, kyky selittää koneoppimismalleja on noussut yhdeksi seuraavista suurista virstanpylväistä, joka saavutetaan tekoälyssä.

He sanovat, että historia toistaa itseään. Varhainen tekoälyn tutkimus, kuten nykyäänkin, keskittyi ihmisen ajattelun ja kognitiivisten mallien mallintamiseen. Aikaisen tekoälyn tutkijoiden kolme pääkysymystä - tieto, selitys ja joustavuus - ovat myös keskeisiä koneoppimisjärjestelmien nykyajan keskusteluissa.

Tieto on nyt datan muodossa, ja joustavuuden tarve näkyy hermoverkkojen hauraudessa, jossa pienet datan häiriöt tuottavat dramaattisesti erilaisia ​​tuloksia. Myös selitettävyys on noussut tekoälyn tutkijoiden ensisijaiseksi tavoitteeksi. On hieman ironista, kuinka 60 vuotta myöhemmin olemme siirtyneet yrittämään toistamaan inhimillistä ajattelua kysymykseen koneilta, miten he ajattelevat.

$config[zx-auto] not found$config[zx-overlay] not found