Ohjelmointi

Tekoäly tänään: Mikä on hype ja mikä on todellista?

Nosta lehti, selaa teknisiä blogeja tai keskustele vain ikäisesi kanssa alan konferenssissa. Huomaat nopeasti, että melkein kaikessa teknologiamaailmasta tulevassa näyttää olevan jotain tekoälyä tai koneoppimista. Se, miten tekoälystä keskustellaan, alkaa kuulostaa melkein propagandalta. Tässä on yksi todellinen tekniikka, joka voi ratkaista kaikki tarpeesi! Tekoäly on täällä pelastaakseen meidät kaikki!

Vaikka on totta, että voimme tehdä hämmästyttäviä asioita tekoälypohjaisilla tekniikoilla, emme yleensä ilmentää sanan "äly" täydellistä merkitystä. Älykkyys tarkoittaa järjestelmää, jonka kanssa ihmiset voivat käydä luovaa keskustelua - järjestelmää, jolla on ideoita ja joka voi kehittää uusia. Kyse on terminologiasta. ”Tekoäly” kuvaa nykyään yleisesti joidenkin ihmisen kykyjen, kuten esineiden tai puheen tunnistamisen, toteutusta, mutta ei varmasti koko ihmisen älykkyyden potentiaalia.

Siksi "tekoäly" ei todennäköisesti ole paras tapa kuvata "uutta" koneoppimisteknologiaa, jota käytämme tänään, mutta juna on poistunut asemalta. Joka tapauksessa, vaikka koneoppiminen ei ole vielä synonyymi koneen älykkyydelle, siitä on varmasti tullut tehokkaampi, kykyisempi ja helpompi käyttää. Tekoäly - tarkoittaen hermoverkkoja tai syvää oppimista sekä "klassinen" koneoppiminen - on vihdoin tulossa vakiintuneeksi osaksi analyysityökaluja.

Nyt kun olemme tekemisissä tekoälyn vallankumouksen (tai pikemminkin evoluution) kanssa, on tärkeää tarkastella, miten tekoälyn käsite on valittu, miksi ja mitä se tarkoittaa tulevaisuudessa. Sukelletaan syvemmälle tutkimaan, miksi tekoäly, jopa sen hieman väärin tulkittu versio, on herättänyt nykyistä huomiota.

Tekoälyn lupa: Miksi nyt?

Nykyisessä hype-syklissä tekoälyä tai koneoppimista kuvataan usein suhteellisen uusina tekniikoina, jotka ovat yhtäkkiä kypsyneet ja vasta äskettäin siirtyneet konseptivaiheesta integrointiin sovelluksiin. Yleisesti uskotaan, että erillisten koneoppimisen tuotteiden luominen tapahtui vasta viime vuosina. Todellisuudessa tekoälyn tärkeä kehitys ei ole uutta. Tämän päivän tekoäly on jatkoa parin viime vuosikymmenen aikana saavutetulle kehitykselle. Muutos, syyt, joiden vuoksi tekoäly näkyy monissa muissa paikoissa, ei koske niinkään tekoälytekniikoita itse, vaan niitä ympäröiviä tekniikoita - nimittäin tietojen tuottamista ja käsittelytehoa.

En kyllästy viittaamaan siihen, kuinka monta zettatavua tietoa aiomme pian tallentaa (kuinka monta nollaa zettatavulla on joka tapauksessa?). Me kaikki tiedämme, että kykymme tuottaa ja kerätä tietoja kasvaa ilmiömäisesti. Samaan aikaan olemme nähneet hämmästyttävän lisääntyvän käytettävissä olevan laskentatehon. Siirtyminen yhden ytimen prosessoreista moniytimiin sekä yleiskäyttöisten grafiikkaprosessoriyksiköiden (GPGPU) kehittäminen ja käyttöönotto tarjoavat riittävästi voimaa syvälliseen oppimiseen. Meidän ei tarvitse edes käsitellä laskentaa sisäisesti. Voimme yksinkertaisesti vuokrata prosessointitehon jonnekin pilvestä.

Niin paljon tietoa ja paljon laskentaresursseja pitkin datatieteilijät pystyvät vihdoin käyttämään viime vuosikymmeninä kehitettyjä menetelmiä täysin eri mittakaavassa. 1990-luvulla hermoverkon kouluttaminen kesti päiviä tunnistamaan kymmenien tuhansien esimerkkien luvut käsinkirjoitetuilla numeroilla. Nykyään voimme kouluttaa paljon monimutkaisemman (ts. "Syvän") hermoverkon kymmenille miljoonille kuville eläinten, kasvojen ja muiden monimutkaisten esineiden tunnistamiseksi. Ja voimme ottaa käyttöön syvällisiä oppimismalleja automatisoimaan tehtäviä ja päätöksiä liiketoiminnan yleisissä sovelluksissa, kuten tuotannon kypsyyden havaitseminen ja ennustaminen tai saapuvien puheluiden reitittäminen.

Tämä saattaa kuulostaa epäilyttävältä kuin todellisen älykkyyden rakentaminen, mutta on tärkeää huomata, että näiden järjestelmien alla viritämme yksinkertaisesti matemaattisen riippuvuuden parametreja, tosin melko monimutkaisia. Tekoälyn menetelmät eivät ole hyviä "uuden" tiedon hankkimisessa; he oppivat vain siitä, mitä heille esitetään. Toisin sanoen tekoäly ei kysy miksi. Järjestelmät eivät toimi kuten lapset, jotka kyseenalaistavat jatkuvasti vanhempiaan yrittäessään ymmärtää ympäröivää maailmaa. Järjestelmä tietää vain mitä syötettiin. Se ei tunnista mitään, josta ei ole aiemmin ilmoitettu.

Muissa "klassisissa" koneoppimisskenaarioissa on tärkeää tietää tietomme ja saada käsitys siitä, kuinka haluamme järjestelmän löytävän malleja. Esimerkiksi tiedämme, että syntymävuosi ei ole hyödyllinen tosiasia asiakkaistamme, ellemme muunna tätä lukua asiakkaan ikään. Tiedämme myös kausiluonteisuuden vaikutuksesta. Meidän ei pitäisi odottaa järjestelmän oppivan muodin ostomalleja vuodenajasta riippumatta. Lisäksi saatamme haluta pistää järjestelmään muutamia muita asioita oppimaan sen lisäksi, mitä se jo tietää. Toisin kuin syväoppiminen, tämän tyyppinen koneoppiminen, jota yritykset ovat käyttäneet vuosikymmenien ajan, on edennyt tasaisemmin.

Äskettäinen tekoälyn kehitys on tapahtunut ensisijaisesti alueilla, joilla datatutkijat pystyvät jäljittelemään ihmisen tunnistuskykyjä, kuten esineiden tunnistaminen kuvissa tai sanat akustisissa signaaleissa. Oppiminen tunnistamaan monimutkaisten signaalien kuviot, kuten äänivirrat tai kuvat, on erittäin tehokasta - riittävän voimakasta, että monet ihmiset ihmettelevät, miksi emme käytä syvällisiä oppimistekniikoita kaikkialla.

Tekoälyn lupa: Mitä nyt?

Organisaation johtajuus saattaa kysyä, milloin heidän tulisi käyttää tekoälyä. Tekoälypohjainen tutkimus on edistynyt valtavasti, kun on kyse hermoverkoista, jotka ratkaisevat ongelmia, jotka liittyvät ihmisten hyvin tekemien asioiden jäljittelemiseen (esineiden tunnistaminen ja puheen tunnistaminen ovat kaksi näkyvintä esimerkkiä). Aina kun kysytään: "Mikä on hyvä objektiesitys?" ja ei pysty keksimään vastausta, syvä oppimismalli saattaa olla kokeilun arvoinen. Kuitenkin, kun datatieteilijät pystyvät rakentamaan semanttisesti rikkaan objektiesityksen, klassiset koneoppimismenetelmät ovat todennäköisesti parempi valinta (ja kyllä, kannattaa sijoittaa hieman vakavasti ajatukseen yrittää löytää hyvä objektiesitys).

Loppujen lopuksi haluaa yksinkertaisesti kokeilla erilaisia ​​tekniikoita samalla alustalla, eikä joillakin ohjelmistotoimittajien valitsemilla menetelmillä tai kyvyttömyydellä saavuttaa alan nykyinen kehitys. Siksi avoimen lähdekoodin alustat ovat johtajia näillä markkinoilla; ne antavat lääkäreille mahdollisuuden yhdistää nykyiset huipputeknologiat viimeisimpään edistykselliseen kehitykseen.

Edetessä, kun tiimit muuttuvat tavoitteidensa ja menetelmiensä mukaisesti koneoppimisen käyttämiseksi niiden saavuttamiseksi, syvällisestä oppimisesta tulee osa jokaisen datatieteilijän työkalupakettia. Monien tehtävien kannalta syvällisten oppimismenetelmien lisääminen yhdistelmään antaa suuren arvon. Ajattele sitä. Voimme sisällyttää esineiden tunnistamisen järjestelmään hyödyntämällä ennalta koulutettua tekoälyjärjestelmää. Pystymme sisällyttämään olemassa olevat ääni- tai puheentunnistuskomponentit, koska joku muu on kokenut vaikeuksia kerätä ja merkitä tarpeeksi tietoa. Mutta lopulta ymmärrämme, että syvä oppiminen, aivan kuten klassinen koneoppiminen ennen sitä, on oikeastaan ​​vain yksi työkalu, jota on järkevää käyttää.

Tekoälyn lupa: Mitä seuraavaksi?

Yksi tiellä, joka tulee esiin, aivan kuten se tapahtui kaksi vuosikymmentä sitten, on äärimmäinen vaikeus, jonka kohtaamme yrittäessämme ymmärtää, mitä tekoälyjärjestelmät ovat oppineet ja miten he keksivät ennusteensa. Tämä ei välttämättä ole kriittistä ennustettaessa, pitäisikö asiakas tietystä tuotteesta vai ei. Mutta kysymyksiä tulee esiin, kun selitetään, miksi ihmisten kanssa vuorovaikutuksessa oleva järjestelmä käyttäytyi odottamattomalla tavalla. Ihmiset ovat valmiita hyväksymään "inhimillisen epäonnistumisen" - emme odota ihmisten olevan täydellisiä. Mutta emme hyväksy epäonnistumista tekoälyjärjestelmässä, varsinkin jos emme voi selittää miksi se epäonnistui (ja korjata sen).

Kun olemme perehtyneet syvempään oppimiseen, ymmärrämme - aivan kuten teimme koneoppimiselle kaksi vuosikymmentä sitten -, huolimatta järjestelmän monimutkaisuudesta ja sen tiedon määrästä, johon sitä koulutettiin, kuvioiden ymmärtäminen on mahdotonta ilman verkkotunnustietoa. Ihmisen puheentunnistus toimii yhtä hyvin kuin se, koska voimme usein täyttää aukon tuntemalla nykyisen keskustelun kontekstin.

Nykypäivän tekoälyjärjestelmillä ei ole niin syvää ymmärrystä. Se, mitä näemme nyt, on matala älykkyys, kyky jäljitellä eristettyjä ihmisen tunnistuskykyjä ja toisinaan ylittää ihmiset näissä eristetyissä tehtävissä. Järjestelmän kouluttaminen miljardien esimerkkien avulla on vain tietojen saaminen ja pääsy riittäviin laskentaresursseihin - ei enää kaupan katkaisija.

Mahdollisuudet ovat, että tekoälyn hyödyllisyys jää viime kädessä "pelasta maailmaa" -propagandaan. Ehkä kaikki, mitä saamme, on uskomaton työkalu, jota ammattilaiset voivat käyttää työssään nopeammin ja paremmin.

Michael Berthold on avoimen lähdekoodin data-analyysiyhtiön KNIME: n toimitusjohtaja ja perustaja. Hänellä on yli 25 vuoden kokemus datatieteestä, hän työskentelee korkeakouluissa, viimeksi varsinaisena professorina Konstanzin yliopistossa (Saksa) ja aiemmin Kalifornian yliopistossa (Berkeley) ja Carnegie Mellonissa sekä teollisuudessa Intelin Neural Network Groupissa, Utopia ja Tripos. Michael on julkaissut laajasti tietoa data-analytiikasta, koneoppimisesta ja tekoälystä. Seuraa MichaeliaViserrys, LinkedIn ja KNIME-blogi.

New Tech Forum tarjoaa mahdollisuuden tutkia ja keskustella kehittyvistä yritysteknologioista ennennäkemättömällä syvyydellä ja laajuudella. Valinta on subjektiivinen, perustuu valitsemiemme tekniikoihin, joiden uskomme olevan tärkeitä ja kiinnostavia lukijoille. ei hyväksy markkinointivakuuksia julkaisua varten ja pidättää oikeuden muokata kaikkea lähetettyä sisältöä. Lähetä kaikki tiedustelut osoitteeseen[email protected].