Programmering

En kort historie med kunstig intelligens

I de tidlige dagene av kunstig intelligens forsøkte informatikere å gjenskape aspekter av menneskets sinn i datamaskinen. Dette er typen intelligens som er ting av science fiction - maskiner som tenker, mer eller mindre, som oss. Denne typen intelligens kalles ikke overraskende forståelighet. En datamaskin med forståelighet kan brukes til å utforske hvordan vi resonnerer, lærer, bedømmer, oppfatter og utfører mentale handlinger.

Tidlig forskning om forståelighet fokuserte på modellering av deler av den virkelige verden og sinnet (fra kognitive forskere) i datamaskinen. Det er bemerkelsesverdig når du tenker på at disse eksperimentene fant sted for snart 60 år siden.

Tidlige modeller for intelligens fokuserte på deduktivt resonnement for å komme til konklusjoner. En av de tidligste og mest kjente A.I. programmer av denne typen var Logic Theorist, skrevet i 1956 for å etterligne et menneskes problemløsningsferdigheter. The Logic Theorist beviste snart 38 av de 52 første setningene i kapittel to av Principia Mathematica, faktisk forbedre en teorem i prosessen. For første gang ble det tydelig demonstrert at en maskin kunne utføre oppgaver som inntil dette ble ansett for å kreve intelligens og kreativitet.

Snart dreide forskningen seg mot en annen type tankegang, induktiv resonnement. Induktiv resonnement er hva en forsker bruker når han undersøker data og prøver å komme med en hypotese for å forklare dem. For å studere induktiv resonnement opprettet forskere en kognitiv modell basert på forskerne som jobbet i et NASA-laboratorium, og hjalp dem med å identifisere organiske molekyler ved hjelp av deres kunnskap om organisk kjemi. Dendral-programmet var det første virkelige eksemplet på den andre funksjonen av kunstig intelligens, instrumentalitet, et sett med teknikker eller algoritmer for å utføre en induktiv resonneringsoppgave, i dette tilfellet molekylidentifikasjon.

Dendral var unik fordi den også inkluderte den første kunnskapsbasen, et sett med hvis / da regler som fanget kunnskapen til forskerne, som skulle brukes ved siden av den kognitive modellen. Denne formen for kunnskap vil senere bli kalt enekspert system. Å ha begge typer "intelligens" tilgjengelig i et enkelt program tillot dataloger å spørre: "Hva gjør visse forskere så mye bedre enn andre? Har de overlegne kognitive ferdigheter, eller større kunnskap? "

På slutten av 1960-tallet var svaret klart. Utførelsen av Dendral var nesten fullstendig en funksjon av mengden og kvaliteten på kunnskapen som ble innhentet fra ekspertene. Den kognitive modellen var bare svakt relatert til forbedringer i ytelsen.

Denne erkjennelsen førte til et stort paradigmeskifte i det kunstige intelligenssamfunnet. Kunnskapsteknikk dukket opp som en disiplin for å modellere spesifikke domener av menneskelig ekspertise ved hjelp av ekspertsystemer. Og ekspertsystemene de opprettet, overskred ofte ytelsen til en enkelt menneskelig beslutningstaker. Denne bemerkelsesverdige suksessen utløste stor entusiasme for ekspertsystemer innen kunstig intelligens, militæret, industrien, investorer og den populære pressen.

Da ekspertsystemer ble kommersielt vellykkede, vendte forskere oppmerksomheten mot teknikker for modellering av disse systemene og gjorde dem mer fleksible på tvers av problemdomener. Det var i denne perioden at objektorientert design og hierarkiske ontologier ble utviklet av AI-samfunnet og adoptert av andre deler av datasamfunnet. I dag er hierarkiske ontologier kjernen i kunnskapsgrafene, som har sett en gjenoppblomstring de siste årene.

Da forskere slo seg ned på en form for kunnskapsrepresentasjon kjent som "produksjonsregler", en form for første ordens predikatlogikk, oppdaget de at systemene kunne lære automatisk; dvs. systemene kan skrive eller omskrive reglene selv for å forbedre ytelsen basert på tilleggsdata. Dendral ble modifisert og gitt muligheten til å lære reglene for massespektrometri basert på empiriske data fra eksperimenter.

Så gode som disse ekspertsystemene var, hadde de begrensninger. De var generelt begrenset til et bestemt problemdomene, og kunne ikke skille fra flere plausible alternativer eller bruke kunnskap om struktur eller statistisk sammenheng. For å løse noen av disse problemene la forskerne til sikkerhetsfaktorer — numeriske verdier som indikerte hvor sannsynlig et bestemt faktum er sant.

Starten på det andre paradigmeskiftet i AI skjedde da forskere innså at sikkerhetsfaktorer kunne pakkes inn i statistiske modeller. Statistikk og Bayesian-slutning kan brukes til å modellere domenekompetanse fra empiriske data. Fra dette punktet fremover vil kunstig intelligens i økende grad bli dominert av maskinlæring.

Det er imidlertid et problem. Selv om maskinlæringsteknikker som tilfeldig skog, nevrale nettverk eller GBT (gradientforsterkede trær) gir nøyaktige resultater, er de nesten ugjennomtrengelige sorte bokser. Uten forståelig produksjon er maskinlæringsmodeller i flere henseender mindre nyttige enn tradisjonelle modeller. For eksempel, med en tradisjonell AI-modell, kan en utøver spørre:

  • Hvorfor gjorde modellen denne feilen?
  • Er modellen partisk?
  • Kan vi påvise samsvar med forskriftene?
  • Hvorfor er modellen uenig med en domenekspert?

Mangelen på forståelighet har også treningsimplikasjoner. Når en modell går i stykker, og ikke kan forklare hvorfor, gjør det det vanskeligere å fikse. Legg til flere eksempler? Hva slags eksempler? Selv om det er noen enkle avveininger vi kan gjøre i mellomtiden, for eksempel å akseptere mindre nøyaktige spådommer i bytte mot forståelighet, har evnen til å forklare maskinlæringsmodeller vist seg som en av de neste store milepælene som skal oppnås innen AI.

De sier at historien gjentar seg. Tidlig AI-forskning, som i dag, fokuserte på modellering av menneskelig resonnement og kognitive modeller. De tre hovedspørsmålene som tidlige AI-forskere står overfor - kunnskap, forklaring og fleksibilitet - forblir også sentrale i moderne diskusjoner om maskinlæringssystemer.

Kunnskap har nå form av data, og behovet for fleksibilitet kan sees i skjørheten i nevrale nettverk, der små forstyrrelser av data gir dramatisk forskjellige resultater. Forklarbarhet har også vist seg som en topprioritet for AI-forskere. Det er litt ironisk hvordan vi 60 år senere har gått fra å prøve å replikere menneskelig tenkning til å spørre maskinene hvordan de tenker.

$config[zx-auto] not found$config[zx-overlay] not found