OVERLEGEN 4-2016 32 Tidligere arbeider av Claude Shannon innen informasjonsteori, Norbert Wiener innen kybernetikk, McCulloch og Pitts innen nevrale nett, og ikke minst Alan Turing innen teoret- isk databehandling, ga bakgrunn for diskusjonene på konferansen. Fokuset til å begynne med var på hvordan menneskelig rasjonell tenking kunne lede til dataprogrammer som kunne løse problemer utover rent regnetekniske oppgaver, dvs. problemer som krevde menneskelig intelligens for å løses. Numeriske beregninger ble erstattet av logiske uttrykk og beslutningsregler. Et av de første suksessprogrammene var The General Problem Solver, som kunne løse ulike typer problemer basert på disse prinsippene. Metodene som ble utviklet var i stor grad basert på kognitive modeller, dvs modeller av hvordan mennesker tenker, løser problemer, og lærer gjennom erfaring. Men etter hvert forsto man at for å løse komplekse problemer i den reelle verden var ikke generelle resonneringsmetoder nok, systemene måtte også ha domene-kunnskap om det spesifikke problemområdet det skulle operere innenfor. Begrepet kunnskapsbaserte systemer, og ekspertsystemer, oppsto. Beslutningsregler ble ofte utvidet med det som ble kalt dypere modeller, dvs. nettverk av begreper og ulike typer relasjoner mellom dem. Tidlige ekspertsystemer utviklet på 70-tallet viste imponerende evner til problemløsing, bl.a. innen medisinsk diagnose og mange typer industrielle problemer, noe som førte til stor interesse og satsing fra industri og forvaltning, spesielt i USA, men også etter hvert i Europa. Et stort problem med ekspertsystemene var arbeidet med manuelt å bygge regelsettene og nettverks- modellene, kalt kunnskapsakkvisisjon, og mye forskning ble nedlagt i dette. På den tiden var tilgjengeligheten på data en helt annen enn i dag, og en kunne bare håpe at kunnskapen som trengtes etterhvert kunne læres fra observerte data. Økt tilgang på data ble etter hvert en realitet, og dette ga fart i del-området maskinlæring. Maskinlæring, forenklet sagt, går ut på å automatisk lære nyttige begreper (for eksempel en medisinske diagnose, hvordan en katt ser ut, eller hva neste aksjon bør være i en beslutningssituasjon), ved å motta inn-data om riktige og ikke-riktige eksempler på begrepet. Utifra dette vil så programmet lære seg et generelt mønster som kan brukes til raskt å fortelle om et nytt og ukjent eksempel er et eksempel på begrepet eller ikke. Men det tok mange år og mye data før maskinlæring-metoder ble så slagkraftige at de fikk praktisk nytte. Fremveksten av maskinlæringmetoder medførte at behovet for å bygge manuelle kunnskapsmodeller ble vesentlig redusert. I dag er situasjonen at vi har uhorvelig mye data tilgjengelig, som også har ført til at nye og stadig bedre læringsalgoritmer har blitt utviklet. Maskinlæring har tatt over som det dominerende metodeområdet innen kunstig intelligens, og de gode resultatene som er framvist har ført til en enorm interesse. Tilgangen på mye data har også ført til at statistiske metoder har blitt stadig mer dominerende, og for mange av metodene har behovet for å bruke tid og krefter på å bygge manuelle modeller forsvunnet helt. En kan si at den skjulte kunnskapen som ligger i dataene, og som kan ekstraheres via Kunstig intelligens og maskinlæring Begrepet kunstig intelligens (artificial intelligence, AI) oppsto under en konferanse ved Dartmouth College i USA i 1956, der mulighetene for maskinell intelligens var temaet. Av Bjørn Magnus Mathisen, Stipendiat og Forsker - NTNU, SINTEF og Agnar Aamodt, Professor - NTNU ›› Analyse av aktivitetsdata samlet fra aktivitetsarmbånd i selfBACK prosjektet.
RkJQdWJsaXNoZXIy MTQ3Mzgy