Månedlige arkiver: May 2010

Fusk og tillit

Denne artikkelen er skrevet i samarbeid med Dag Langmyhr,  undervisningsleder ved Institutt for informatikk.

I forrige uke var Institutt for informatikk i medienes søkelys på grunn av studenter som fusker. Vi er tilfreds med medienes dekning av saken, men ønsker her å komme med noen presiseringer om hva dette handler om og omfanget av fusk.

Omfanget av fusk

Først og fremst er det viktig å understreke at andelen studenter som fusker er svært lav.

Det er en utbredt oppfatning at fuskesakene oppstår i forbindelse med eksamen. Dette er ikke korrekt. Antall fuskesaker i forbindelse med ordinær eksamensavvikling er tilnærmet neglisjerbar og Institutt for informatikk har ikke avdekket fusk i forbindelse med eksamen på mange år. Dette skyldes i all hovedsak at alle eksamener gjennomføres under oppsyn av vakter og at oppgavene knyttet til eksamen i svært liten grad åpner for muligheten for å fuske; i de fleste emner får studentene ha med bøker og notater. Det samme gjelder fusk i masteroppgaver. Dette er også neglisjertbart, og vi opererer med én fuskesak i snitt hvert femte år. Dette er svært lite i lys av at vi uteksaminerer mellom 120 og 160 kandidater hvert år.

Fuskesakene som det refereres til oppstår i all hovedsak ved innlevering av obligatoriske oppgaver gjennom semesteret. Hvert år innleveres bortimot 10.000 obligatoriske oppgaver ved Institutt for informatikk. De ca. 20 studentene som ble tatt for fusk i 2009 knytter seg til innlevering av obligatoriske oppgaver der studentene hadde kopiert besvarelser utført av andre. Dette utgjør anslagvis 0,2% av alle obligatorisk oppgaver som leveres inn for godkjenning.

Avhengig av tillit

I gjennomføringen av våre kurs er vi avhengig av at det er stor tillit mellom kursansvarlige og de studentene som tar kursene. Vi oppmuntrer til samarbeid mellom studentene, men vi er også klare på at de obligatoriske oppgavene de skal levere gjennom semesteret skal de ha skrevet selv. Vi er avhengig av en åpen linje der studentene på den ene siden kan samarbeide om teori og metoder, men at selve løsningen (som i all hovedsak er et dataprogram) skal skrives av studenten selv. Noen få studenter fristes av muligheten til å kikke over skulderen til “naboen” eller bruke oppgaver som er levert inn av studenter på tidligere årskull.

Første året

Selv om det finnes enkelte unntak, viser det seg at fusk nesten utelukkende foregår i løpet av studentens første år (begynnerkursene). Dette skyldes i noen utstrekning innretningen på kursene, men vi har en klar oppfatning av at studentene etter hvert forstår at det ikke er lurt å fuske. Mange blir tatt for fusk (se under) og fuskere som ikke blir tatt får dårlige karakterer eller stryker. Dette påvirker videre adferd i hele studentmassen.

Joly – et dataprogram

Institutt for informatikk har utviklet et dataprogram som fanger opp innleverering av oppgaver som er mistenkelig like. Dataprogrammet har fått navnet Joly etter den ikke ukjente norsk-franske korrupsjonjegeren Eva Joly. Dataprogrammet avgjør ikke om noen fusker; dette overlates til en faglærer basert på funnene fra Joly. Det interessante er at 95% av de som konfronteres med fusket, umiddelbart innrømmer at de har fusket. Vi må imidlertid håndtere ett spesialtilfelle og det er når to eller flere oppgaver er svært like innenfor samme studentkull. Noen har kikket på naboen og spørmålet er hvem er det som faktisk har gjort jobben sin? I dette tilfellet sorteres dette ut ved at studentene blir bedt om å forklare besvarelsen og da er det nesten alltid helt klart hvem som faktisk har gjort oppgaven i tråd med våre retningslinjer for samarbeid.

Effekten av Joly (og våre rutiner)

I forkant av at vi utviklet Joly med tilhørende rutiner gjorde vi analyser som indikerte at nærmere 20% av innleveringene var fusk, dvs. plagiering av andres løsninger på oppgaven. Lignende analyser i USA ga omtrent samme prosentandel. Holdningen hos mange av studentene var at det ikke er så farlig å gjenbruke andres arbeid. Disse holdningene er der forsatt, men stort sett bare hos helt ferske studenter og i et betydelig mindre omfang enn tidligere. Innføringen av Joly med tilhørende rutiner har gitt følgende positive effekter:

  • Det er vanskelig å estimere presist men det er i dag betydelig færre studenter som prøver seg på fusk. Vi tror, basert på våre analyser, at antall innleverte oppgaver der studenten har fusket gjennom å kopiere andre oppgaver er redusert med mellom 80 og 90%.
  • Strykprosentene til eksamen har gått betydelig ned. Analyser har vist at de som fusker på obligatoriske oppgaver, enten får svært dårlige karakterer eller stryker til eksamen.
  • Holdningene til denne type fusk har blitt bedre, delvis basert på den informasjon vi gir studentene når de starter, delvis fordi vi synliggjør at fusk ikke lønner seg (utestengelse ett semester om de blir avslørt) og delvis fordi Joly (med tilhørende rutiner) er et effektivt virkemiddel for å ta fuskerne. En klar indikasjon på dette er at brorparten av alle fuskesakene finner vi blant nye studenter.

Ulempen

Ulempen er at dette er en administrativt og faglig krevende jobb hvor hver enkelt person som mistenkes må håndteres individuelt og med respekt. Vi kan også ta feil, selv om presisjonsnivået for de rutiner vi nå har synes å være meget høyt.

Andre steder

Våre kolleger på Universitetet i Bergen har også systemer for å fange fuskere og på Youtube finner dere denne interessante og underholdende filmen.

Fra Kina via Festspillene til ….

Nå har kunstverkene kommet til Norge!

Kunst på vei til Gaustadbekkdalen og Institutt for informatikk. Her står veggskulpturene utstilt under festspillene i Bergen. Merk deg størrelsen! (foto: Terje Knudsen)

Kunstneren Bård Breivik har utviklet fire store skulpturer som skal pryde det nye informatikkbygget ved Universitetet i Oslo (UiO). Det nye informatikkbygget vil stå ferdig sent på høsten 2010 og skal etter planen åpnes for studenter og ansatte til vårsemesteret 2011. En stor begivenhet for Institutt for informatikk og ikke minst en stor begivenhet for alle våre studenter. Det er også stort for oss at åpningen av det nye informatikkbygget skjer i 2011 – det året Universitetet i Oslo skal feire sitt 200 års jubileum.

Kunstverkene er fire store veggskulpturen utviklet av Bård Breivik inspirert av fire forskjellige matematiske funksjoner. Skulpturene er produsert av dyktige håndverkere i Kina under kyndig veileding av kunstneren.  Professor Fritz Albregtsen ved Institutt for informatikk har bidratt i utformingen av det matematiske grunnlaget for de formene som skulpturene uttrykker. Bildene til høyre og venstre er tatt av skulpturene før de ble sendt med båt til Norge. Snart får UiO et nytt og vakkert bygg, ikke minst på grunn av de kunstverkene som snart er på plass i Gaustadbekkdalen.

En fremtid uten ladekabler

Min kollega Sverre Holm ved Institutt for informatikk har nylig åpnet en blogg der han allerede har publisert noen interessant innlegg. En fremtid uten ladekabler er noe jeg selv hadde tenkt å skrive om ved anledning, men Sverre har allerede gjort dette på en utmerket måte. Det er derfor en glede for meg å kunne gjengi hans artikkel om dette tema på min blogg. Du finner også en peker til Sverres blogg til høyre på denne siden.

En fremtid uten ladekabler

Av Sverre Holm, Institutt for informatikk

Telefonen er nå så og si fri for kabler og mobilkommunikasjon er blitt en naturlig del av dagliglivet. Men fortsatt er vi helt avhengig av kabler til lading av musikkspillere, GPS-er og mobiltelefoner. Kan vi se for oss en fremtid der lading skjer helt uten kabler?

Svaret er tja. På en måte har vi det allerede, bare tenk på elektriske tannbørster som lades ved induksjon. Det er det samme som i en transformator. De er effektive og taper så å si ikke noe energi på veien, fordi det er så kort avstand mellom primær- og sekundærviklingen og fordi det er en jernkjerne i mellom. Begge disse to tingene mangler som regel når alle dingsene våre skal fjernlades. Det lykkes med tannbørsten fordi holderen gjør at avstanden er kort, den trenger lite strøm, og det er mange timer mellom hver gang den brukes. Et lignende prinsipp, men med frekvenser i 10 MHz-området, er blitt testet ut på MIT og det er noe slikt man har mest tro på når det gjelder fjernlading også.

Ønskedrømmen er at mobiltelefonen lades med en gang den kommer inn i huset. Dessverre ser det ut til at de elektriske og magnetiske feltene ved induksjon blir så sterke at de er farlige for mennesker. Ved MIT-forsøkene med evanescent resonanskobling var det elektriske feltet på 210 V/m, som ved de frekvensene man brukte er 7.5 ganger over grensen fastsatt av ICNIRP, Den internasjonale kommisjonen for sikkerhet ved ikke-ioniserende stråling. Det magnetiske feltet var enda verre, 1 A/m, som er 15 ganger høyere enn grensen. Dette begrenser bruken til miljøer der det ikke er mennesker, f.eks en industrihall med roboter.

Men nærfeltsinduksjon finnes flere steder enn i tannbørster. I Genova i Italia lades elektriske busser ved at de parkerer over en ladeplate og hvis man utstyrer mobiltelefonen sin med en mottaksspole, så kan man få ladeplater som man bare legger mobiltelefoner oppå for lading. Det er bare når feltene skal virke lenger enn noen få titalls cm at virkningsgraden blir lav og sikkerhetsproblemene blir for store.

Jeg vil ikke se bort fra at det finnes en løsning av bølgeligningen som kan gi sikker lading over mange meter. Kanskje mer grunnforskning må til. Før det skjer er det likevel nok muligheter til at det er flere nystartede firmaer som kniver om førsteplassen innen de forskjellige nisjene. Og det er alt opprettet et Wireless Power Consortium som vil standardisere så mobiltelefonen og tannbørsten kan bruke den samme trådløse laderen.

Åpne standarder

Nokså ofte, blant annet fra journalister, har jeg fått spørsmål rundt såkalte åpne standarder. Her er et forsøk på å svare på noen av spørsmålene jeg får.

Hva er åpen standard?

Det er en beskrivelse av noe som er kjent for alle og beskriver for eksempel hvordan dokumenter representeres, lagres og utveksles mellom datamaskiner. For å si det litt mer presist, en representasjonsform er standardisert dersom to eller flere systemer er enige om en felles representasjonsform. Igjen kan dette være hvordan et dokument representeres, lagres og utveksles slik at det kan brukes av minst to systemer. Hvis standarden er kjent for alle, ikke bare for noen, er den åpen. Jpeg er et eksempel på en åpen standard for representasjon av digitale bilder.

Hva vil det si at en standard er lukket?

Hvis for eksempel to organisasjoner eller bedrifter samarbeider om et felles prosjekt, så kan de bli enige om hvordan de skal utveksle informasjon seg imellom. De kan definere sin egen standard for utveksling av informasjonen og den vil i utgangspunktet ikke være åpen for alle, dvs. lukket.

Hva er kriteriene for å bli godkjent som en åpen standard?

Det er mange ulike organisasjoner som driver med standardisering, men det kan være veldig forskjellige ting som standardiseres, som for eksempel hvilken vei skruegjenger skal gå på en skrue til hvordan et dokument skal representeres for lagring og utveksling. Det viktigste kriteriet for en åpen standard er at alle kan gjøre seg kjent med den, og at den er godt beskrevet slik at det ikke oppstår misforståelser.  Generelt er åpne standarder bra fordi det gjør det lettere å utvikle nye systemer som er tilpasset det som allerede er kjent. Utfordringen kan være at hvis du standardiserer for tidlig kan det fra tid til annen være vanskelig å videreutvikle standarden. Standarden blir ikke fleksibel nok til å ta inn over seg ny teknologi og kunnskap. Det å definere en standard er nesten alltid et spørsmål om god ”timing”.

Hvem får størst nytte av åpne standarder?

Åpne standarder er viktig for alle, men til syvende og sist er det brukerne (eller konsumentene) som har mest nytte av åpne standarder. Det er de som kjøper systemene og bruker disse. Igjen kan vi ta standarden Jpeg for utveksling av bilder. Bruk av en slik standard gjør det lettere å utveksle bilder mellom dine egne systemer, for eksempel mellom ditt kamera, din mobiltelefon og din datamaskin. Det er også lettere å utveksle bilder med venner og bekjente over nettet. Hvis kameraet hadde representert bildene på en annen form enn det systemene på din datamaskinen kunne forstå må du oversette bildet til den formen som datamaskinen forstår. I dag kan du bare plugge kameraet til datamaskinen og kameraet oppstår som en egen enhet med bilder du kan se på skjermen på datamaskinen. Her er det mye standardisering som har gjort dette mulig.

Alle er offisielt positive til åpne standarder, men det er åpenbart at store aktører som dominerer et gitt marked ikke er like begeistret for åpne standarder. Grunnen til dette er selvfølgelig at åpne standarder gir enklere tilgang for potensielle konkurrenter.  Svært mange datamaskiner har operativsystem fra Microsoft. Microsoft har en nettleser som heter Internett Explorer, men det finnes også andre nettlesere som Opera og Firefox. Dersom du som bruker ønsker å benytte Opera eller Firefox under operativsystemet til Microsoft må det finnes en ”kontakt” mellom systemene. Dersom denne kontakten er kjent for alle kan den betraktes som en åpen standard (eller defacto standard).

Hvorfor fant man opp åpne standarder?

Helt siden tidenes morgen har vi vært opptatt av å utveksle informasjon. Språket vårt er en slags standard for skriftlig og muntlig kommunikasjon. Produsenter av skruer måtte bli enige om hvilke vei gjengene på skruer skulle gå og hvor tykke gjengene skulle være, og dokumenter som representeres, lagres og utveksles mellom datamaskiner må kunne leses av ulike systemer. Personlig mener jeg at en standard ikke er en ordentlig standard før den er åpen for alle.

Hva er det mest spennende som skjer innen feltet?

Fra mitt ståsted er det nok det som skjer i utviklingen av den allestedsnærværende digitale infrastrukturen. Hvordan fremtidens informasjon skal representeres og distribueres fra et mangfold av innholdsprodusenter til alle sluttbrukeren som er over alt med sine digitale dingser. Her er det en mye upløyd mark, også når det gjelder standardisering.

Hva vil skje om 10 år?

En positiv utvikling av informasjonssamfunnet krever åpne standarder og en standard er ikke en standard med mindre den er åpen.  Dette vil være hovedtrenden!

Hva frykter jeg mest?

At store kommersielle aktører blir fristet av monopoltanken og at de derfor holder viktige informasjon som bør tilgjengeliggjøres som åpne standarder unna allmennheten.

Tomorrows user interfaces

The world is large and we find a lot of interesting research around.  Below you find an interesting video that might give us some hints about the user interfaces of tomorrow.    Watch the TED video!

Pranev Mistry is the inventor of SixthSense, a wearable device that enables new interactions between the real world and the world of computers and data. Pranev is a research assistent and PhD-student at MIT. In particular, I liked the live newspaper as shown in one of the Harry Potter movies! You find more TED videos here. (TED=Technology, Entertainment, Design)

Drømmen om en regnemaskin (*-1820)

Blaise Pascal

Denne første epoken i datamaskinens historie startet ved tidenes morgen, men det er tvilsomt om drømmen om en regnemaskin fant sted før matematikkens grunnleggende regnearter var etablert. De første kjente regnemaskiner som kunne alle fire grunnleggende regneartene stammer fra 1600-tallet, Wilhelm Schickard (1623), Blaise Pascal (1642) og Gottfried Leibnitz (1694). Disse regnemaskinene manglet imidlertid noe vesentlig som var nødvendig for at de kunne kalles reelle forløpere til datamaskinen, men på begynnelsen av 1800-tallet skjedde det noe?


Den mekaniske regnemaskin (1820-1946)

Innenfor dette tidsrommet har jeg plukket ut fire personer som på ulikt vis bidro til utviklingen og bruken av regnemaskiner, og ikke minst en person som gjennom en kjent publikasjon fra 1936 la grunnlaget for informatikkfaget.

I 1820 tegnet den engelske matematikeren Charles Babbage (1791-1871) en regnemaskin som inneholdt mesteparten av de funksjonene vi har i en datamaskin i dag. Et år senere presenterte Babbage maskinen han kalte differansemaskinen (The Difference Engine) for “The Royal Astronomical Society” i England . Maskinen skulle fremstille logaritmetabeller der logaritmeberegningen ble tilnærmet av polynomer og en numerisk metode (differansemetoden). Babbage fikk penger for å lage maskinen, men klarte ikke å konstruere den. Han klarte ikke å få de mekaniske delene til å fungere. Material- og produksjonsteknologien var ikke moden. Essensen i Babbage sin maskin var at denne maskinen trengte et minne, noe vi vet at alle datamaskiner trenger. Noen år senere (1833 og 1842) presenterte han en enda mer avansert maskin (The Analytic Engine) som også kunne programmeres! Charles Babbage kalles gjerne for datamaskinens bestefar.

Augusta Ada King, Countess of Lovelace (1815 -1852), i moderne tid kjent som Ada Lovelace kalles gjerne den første programmerer. Hun arbeidet med å utvikle algoritmer som kunne prosesseres av den analytiske maskinen (The Analytic Engine) til Charles Babbage. I motsetning til Babbage, som var utelukkende opptatt av beregninger, forutså hun at disse maskinen kunne gjøre andre ting enn å utføre beregninger. Ada Lovelace var datter av det kjente poeten Lord Byron.

Hermann Hollerith (1860-1929) var en tysk-amerikansk statistiker som utviklet en tabulerende maskin basert på hullkort. Hollerith fant ut at tall kunne kodes ved å lage hull plassert i bestemte posisjoner (rader og kolonner) på et kort. Den tabulerende maskinen var konstruert slik at mekanikken kunne sortere kortene og telle antall kort med ulike kombinasjoner av hull. Som en del av systemet utviklet Hollerith  en mekanisme der han brukte en elektronisk forbindelse for å trigge en teller. Holleriths maskiner ble først brukt under folketellinger i USA. Mens den forrige folketellingen i USA (1880 folketellingen) tok 8 år ble den neste gjennomført på ett år (1890 folketellingen) takket være maskinene til Hollerith. Hermann Hollerith var grunnleggeren av firmaet Computing Tabulating Recording Corporation (CTR) som i 1911 ble fusjonert med tre andre selskaper. Dette fusjonerte selskapet  fikk i 1924 navnet International Business Machines Corporation (IBM) .

Innenfor denne perioden kommer vi selvsagt ikke utenom Alan Turing (1912-1954). I 1936 publiserte Turing artikkelen “On Computable Numbers”. Dette er Turings mest berømte verk der han definerer grunnlaget for datavitenskapen og informatikkfaget. Turing introduserte sine «maskiner», som var formelt beskrevne (tenkte) maskiner. Disse maskinene ble senere kalt turingmaskiner. Alan Turing kalles gjerne for informatikkens far. Turing hadde også andre bidrag til IT-historien, noe jeg kommer tilbake til ved neste korsvei.

Andre verdenskrig er over og det lukter radiorør og mye mer.

Datamaskinen blir til (1946-1969)

Mekaniske regnemaskiner blir historie og datamaskinen blir en realitet. I perioden fra 1946 til 1969 har jeg plukket frem fem viktige oppfinnelser og/eller utviklingstrekk i IT-historien, og understreker at disse fem bare er utgjør en del av hele bildet.

Kontrollpanelet til UNIVAC 1 (1951)

Den elektroniske regnemaskinen. Den tekniske utviklingen før og under andre verdenskrig var rask og omfattende og flere forskere verden over hadde tanker om hvordan de skulle bygge en elektronisk regnemaskin. Først ute var John Mauchly og J. Presper Eckert som i februar 1946 skrudde på strømmen på verdens første elektroniske datamaskin. Navnet på denne maskinen var ENIAC (Electronic Numerical Integrator And Computer). Mauchly og Eckert var også sentrale i utviklingen av EDVAC, BINAC og UNIVAC 1, som var den første datamaskin i kommersielt salg i USA.  Norges første datamaskin  sto ferdig i 1954 og fikk navnet NUSSE (Norsk Universell Siffermaskin Selvstyrt Elektronisk). Den står utstilt på Teknisk Museum i Oslo. Når Charles Babbage gjerne kalles datamaskinens bestefar er det vel kanskje riktig å si at Mauchy og Eckert er datamasinens to fedre?

Kunstig intelligens. Kommer mer….

Transistoren og mikroprosessoren. Kommer….

Objekt-orientert programmering. Kommer….

Internett har røtter tilbake til 1950-tallet, men den reelle forløper til Internett ble lansert i 1967 og satt i drift i 1969. Navnet på dette nettet var ARPANET og første versjon koblet sammen datamaskiner ved fire universiteter i USA.  ARPANET kom til Norge i 1972 da NORSAR ble koblet til nettverket via satelitt. Deretter gikk det kort tid før flere forskningsmiljøer i Norge var koblet til ARPANET. Overføringsprotokollen TCP/IP (Internet Protocol Suite) ble definert av Robert E. Kahn og Vinton G. Cerf i 1973, og det er dette arbeidet som satte fart i utbredelsen av Internett. Det kommer selvfølgelig mer om Internett senere i denne kortfattede serien om IT-historien.