Programmering

Kunstig intelligens i dag: Hva er hype og hva er ekte?

Plukk opp et magasin, bla gjennom teknologibloggene, eller bare chatte med jevnaldrende på en bransjekonferanse. Du vil raskt merke at nesten alt som kommer ut av teknologiverden ser ut til å ha noe element av kunstig intelligens eller maskinlæring. Slik kunstig intelligens blir diskutert, begynner det å høres ut som propaganda. Her er den sanne teknologien som kan løse alle dine behov! AI er her for å redde oss alle!

Selv om det er sant at vi kan gjøre fantastiske ting med AI-baserte teknikker, gir vi generelt ikke den fulle betydningen av begrepet "intelligens". Intelligens innebærer et system som mennesker kan ha en kreativ samtale med - et system som har ideer og som kan utvikle nye. Det dreier seg om terminologien. "Kunstig intelligens" i dag beskriver ofte implementeringen av noen aspekter av menneskelige evner, som gjenstand eller talegjenkjenning, men absolutt ikke hele potensialet for menneskelig intelligens.

Dermed er "kunstig intelligens" sannsynligvis ikke den beste måten å beskrive den "nye" maskinlæringsteknologien vi bruker i dag, men det toget har forlatt stasjonen. I alle fall, mens maskinlæring ennå ikke er synonymt med maskinintelligens, har den absolutt blitt kraftigere, mer dyktig og enklere å bruke. AI - som betyr nevrale nettverk eller dyp læring, så vel som "klassisk" maskinlæring - er endelig på vei til å bli en standard del av analyseverktøyet.

Nå som vi er godt inne i AI-revolusjonen (eller rettere evolusjon), er det viktig å se på hvordan konseptet med kunstig intelligens er blitt valgt, hvorfor og hva det vil bety i fremtiden. La oss dykke dypere for å undersøke hvorfor kunstig intelligens, til og med en eller annen lett misforstått versjon av den, har tiltrukket det nåværende nivået av oppmerksomhet.

AI-løftet: Hvorfor nå?

I den nåværende hypesyklusen blir kunstig intelligens eller maskinlæring ofte avbildet som relativt nye teknologier som plutselig har modnet, og nylig flyttet fra konseptstadiet til integrering i applikasjoner. Det er en generell tro på at opprettelsen av frittstående produkter for maskinlæring skjedde bare de siste årene. I virkeligheten er ikke den viktige utviklingen innen kunstig intelligens ny. AI i dag er en fortsettelse av fremskritt oppnådd de siste par tiårene. Endringen, årsakene til at vi ser kunstig intelligens dukker opp så mange flere steder, handler ikke så mye om AI-teknologiene selv, men teknologiene som omgir dem - nemlig datagenerering og prosessorkraft.

Jeg vil ikke kjede deg med å sitere hvor mange zettabyte data vi snart skal lagre (hvor mange nuller har en zettabyte uansett?). Vi vet alle at vår evne til å generere og samle inn data vokser fenomenalt. Samtidig har vi sett en utrolig økning i tilgjengelig datakraft. Skiftet fra enkeltkjerne prosessorer til multikjern samt utvikling og bruk av generelle grafikkbehandlingsenheter (GPGPUer) gir nok kraft til dyp læring. Vi trenger ikke engang å håndtere beregning internt lenger. Vi kan rett og slett leie prosessorkraften et sted i skyen.

Med så mye data og mange beregningsressurser er dataforskere endelig i stand til å bruke metodene som er utviklet de siste tiårene i en helt annen skala. På 1990-tallet tok det dager å trene et nevralt nettverk for å gjenkjenne tall på titusenvis av eksempler med håndskrevne sifre. I dag kan vi trene et mye mer komplekst (dvs. "dypt") nevralt nettverk på titalls millioner bilder for å gjenkjenne dyr, ansikter og andre komplekse gjenstander. Og vi kan distribuere dype læringsmodeller for å automatisere oppgaver og beslutninger i vanlige forretningsapplikasjoner, for eksempel å oppdage og forutsi modenheten til produsere eller dirigere innkommende anrop.

Dette kan høres mistenkelig ut som å bygge ekte intelligens, men det er viktig å merke seg at under disse systemene justerer vi ganske enkelt parametere for en matematisk avhengighet, om enn en ganske kompleks. Metoder for kunstig intelligens er ikke gode til å tilegne seg ”ny” kunnskap; de lærer bare av det som blir presentert for dem. Med andre ord stiller ikke kunstig intelligens spørsmål om hvorfor. Systemer fungerer ikke som barna som vedvarende stiller spørsmål ved foreldrene sine når de prøver å forstå verden rundt seg. Systemet vet bare hva det ble matet. Den vil ikke gjenkjenne noe den ikke tidligere ble gjort kjent med.

I andre, "klassiske" maskinlæringsscenarier er det viktig å kjenne dataene våre og ha en idé om hvordan vi vil at systemet skal finne mønstre. For eksempel vet vi at fødselsår ikke er et nyttig faktum om kundene våre, med mindre vi konverterer dette tallet til kundens alder. Vi vet også om effekten av sesongmessighet. Vi bør ikke forvente at et system skal lære motekjøpsmønstre uavhengig av sesong. Videre kan det være lurt å injisere et par andre ting i systemet for å lære på toppen av hva det allerede vet. I motsetning til dyp læring har denne typen maskinlæring, som bedrifter har brukt i flere tiår, utviklet seg mer i jevnt tempo.

Nylige fremskritt innen kunstig intelligens har først og fremst kommet i områder der dataforskere er i stand til å etterligne menneskelige gjenkjenningsevner, for eksempel å gjenkjenne objekter i bilder eller ord i akustiske signaler. Å lære å gjenkjenne mønstre i komplekse signaler, som lydstrømmer eller bilder, er ekstremt kraftig - kraftig nok til at mange lurer på hvorfor vi ikke bruker dype læringsteknikker overalt.

AI-løftet: Hva nå?

Organisasjonsledelse spør kanskje når de skal bruke kunstig intelligens. Vel, AI-basert forskning har gjort store fremskritt når det gjelder nevrale nettverk som løser problemer som er relatert til å etterligne hva mennesker gjør bra (objektgjenkjenning og talegjenkjenning er de to mest fremtredende eksemplene). Når man spør, "Hva er en god gjenstandsrepresentasjon?" og ikke kan komme med et svar, så kan en dyp læringsmodell være verdt å prøve. Imidlertid, når dataforskere er i stand til å konstruere en semantisk rik objektrepresentasjon, er klassiske maskinlæringsmetoder sannsynligvis et bedre valg (og ja, det er verdt å investere litt seriøst i å prøve å finne en god objektrepresentasjon).

Til slutt vil man bare prøve forskjellige teknikker innen samme plattform og ikke være begrenset av noen programvareleverandørs valg av metoder eller manglende evne til å innhente den nåværende fremgangen i feltet. Dette er grunnen til at open source-plattformer er ledende i dette markedet; de tillater utøvere å kombinere dagens topp moderne teknologier med den nyeste banebrytende utviklingen.

Når teamet blir justert i mål og metoder for å bruke maskinlæring for å oppnå dem, vil dyp læring bli en del av enhver datavitenskapers verktøykasse. For mange oppgaver vil det gi stor verdi å legge til dype læringsmetoder i blandingen. Tenk på det. Vi vil være i stand til å inkludere gjenkjenning av objekter i et system, ved å bruke et forhåndstrent kunstig intelligenssystem. Vi vil være i stand til å innlemme eksisterende tale- eller talegjenkjenningskomponenter fordi noen andre har gått gjennom bryet med å samle inn og kommentere nok data. Men til slutt vil vi innse at dyp læring, akkurat som klassisk maskinlæring før den, egentlig bare er et annet verktøy å bruke når det gir mening.

AI-løftet: Hva neste?

En av veisperringene som vil dukke opp, akkurat som for to tiår siden, er den ekstreme vanskeligheten man møter når man prøver å forstå hva kunstig intelligenssystemer har lært og hvordan de kommer med sine spådommer. Dette er kanskje ikke kritisk når det gjelder å forutsi om en kunde kanskje eller ikke liker et bestemt produkt. Men det vil oppstå problemer når det gjelder å forklare hvorfor et system som samhandler med mennesker oppførte seg på en uventet måte. Mennesker er villige til å akseptere "menneskelig svikt" - vi forventer ikke at mennesker skal være perfekte. Men vi aksepterer ikke feil fra et kunstig intelligenssystem, spesielt hvis vi ikke kan forklare hvorfor det mislyktes (og rette det).

Når vi blir mer kjent med dyp læring, vil vi innse - akkurat som vi gjorde for maskinlæring for to tiår siden - at til tross for systemets kompleksitet og datamengden det ble trent på, er forståelse av mønstre umulig uten domenekunnskap. Menneskelig talegjenkjenning fungerer like bra som den gjør fordi vi ofte kan fylle et hull ved å kjenne konteksten til den nåværende samtalen.

Dagens kunstige intelligenssystemer har ikke så dyp forståelse. Det vi ser nå er grunne intelligens, evnen til å etterligne isolerte menneskelige anerkjennelsesevner og noen ganger overgå mennesker på disse isolerte oppgavene. Å trene et system på milliarder av eksempler er bare et spørsmål om å ha dataene og få tilgang til nok databehandlingsressurser - ikke en avtalsbryter lenger.

Sjansen er stor for at nytten av kunstig intelligens til syvende og sist kommer til å ligge et sted under propagandaen for "redd verden". Kanskje alt vi får er et utrolig verktøy for utøvere å bruke for å gjøre jobbene sine raskere og bedre.

Michael Berthold er administrerende direktør og medstifter av KNIME, et open source dataanalyseselskap. Han har mer enn 25 års erfaring innen datavitenskap, arbeid i akademia, sist som full professor ved Konstanz University (Tyskland) og tidligere ved University of California (Berkeley) og Carnegie Mellon, og i industrien ved Intels Neural Network Group, Utopy og Tripos. Michael har publisert mye om dataanalyse, maskinlæring og kunstig intelligens. Følg Michael videreTwitter, LinkedIn og KNIME blogg.

New Tech Forum er et sted for å utforske og diskutere ny teknologi i enestående dybde og bredde. Valget er subjektivt, basert på vårt valg av teknologiene vi mener er viktige og av størst interesse for leserne. godtar ikke markedsføringssikkerhet for publisering og forbeholder seg retten til å redigere alt bidratt innhold. Send alle henvendelser til[email protected].

$config[zx-auto] not found$config[zx-overlay] not found