Valg på nytt AU

Den norske delen av USENET, også kjent som «news» eller «diskusjonsgrupper», skal ha nytt arbeidsutvalg (AU). AU er en samling på fire valgte medlemmer som har som oppgave å administrere endringer og vedlikehold i no.*-hierarkiet. Ett av medlemmene er «vaktmester» og tar seg av de tekniske tingene som opprettelser eller nedleggelser av grupper etc.

Vaktmester er ikke på valg denne gangen, men de tre andre plassene er ledige. Kandidatene som stiller til valg, er:

Alle som har en e-postadresse og er interessert i den norske delen av USENET-hierarkiet har stemmerett. Hvordan du skal stemme, kan du lese mer om i gruppen no.usenet.admin. Hvis du er interessert i no.* og hvordan dette skal se ut i fremtiden, bør du stemme. Husk at Arbeidsutvalget skal sitte i ca. to år, og vil være med på å prege no-hierarkiet. Arbeidsutvalget trenger å føle at det har bred støtte blant folk som bryr seg, for å kunne ha inspirasjon til å gjøre en god innsats. Det er også viktig at valgresultatet reflekterer et flertall av de som interesserer seg for «styringen» av USENET news i Norge.

Godt valg!

Teksten i denne artikkelen er delvis klippet fra www.usenet.no og USENETmeldingen Avstemning: slik stemmer du. Bildet er lånt fra www.usenet.no.

Nettmusikk, DRM og Marit Larsen

Marit Larsen - Don't save me Marit Larsen forsvant litt ut av mediebildet da M2M ble M and M, sånn hver for seg selv. Siden jeg allerede har kommet ut av skapet som Gilmore Girls-seer, kan jeg jo føye skam til skade, og innrømme at jeg egentlig likte begge M’ene litt og Marit kanskje ikke minst, og derfor gjerne så at hun kom litt tilbake til rampelyset igjen.

Nå er hun her igjen med en tidvis glitrende gladpoplåt. Don’t save me har klare Abba-assosiasjoner, men ikke så mye at det blir påtrengende. Marit gjør som vanlig en solid fremføring som klart viser rutinen ungjenta tross alt besitter, og en leken og herlig produksjon sørger for at resultatet blir mer enn bestått. Albumet kommer i mars!

Men det var ikke bare det jeg ville nevne. Jeg fikk nemlig litt lyst til å være litt moderne og lovlydig for en gangs skyld, og ville prøve å kjøpe Marits singel på nettet. CDON.COM kunne hjelpe meg med det. Mot et trekk på 9,90 fra kredittkortet mitt, ble jeg innehaver av fila «Marit Larsen Don’t Save Me.wma», og det pene bildet av platecoveret. Nedlasting og avspilling gikk problemfritt.

Men hva gjør jeg med kopibeskyttelsen?

Men dette er jo sånn DRM-beskyttet musikk hvor det må lastes ned lisens og slikt, så jeg var litt spent da jeg skulle prøve å spille av sangen på maskin nummer 2. Ubegrunnet, viste det seg – deg gikk også helt greit, lisensen ble lastet ned på begge maskinene. Begge kjører Windows, hvordan det hadde vært på et annet OS tør jeg ikke tenke på, da. Men fremdeles er altså denne sangen «beskyttet», slik at jeg faktisk må ha en tillatelse for å spille den av. Det er litt irriterende. Hva skjer hvis maskinen min må reinstalleres, hva skjer hvis jeg prøver å spille den på Kubuntumaskinen min, eller hva om jeg tar den med meg til for mange maskiner? Dette er spørsmål jeg rett og slett ikke vet svaret på når musikken er levert med slik beskyttelse.

Så hva gjør vi da? Jo, først så brenner jeg en CD med musikken. Dette har jeg selvfølgelig rett til, jeg vil jo gjerne kunne spille av musikken på alle CD-spillerne jeg har, og kun et fåtall av disse spiller wma- eller andre musikkfiler. Denne CD’en kan brennes fra Windows Media Player eller et hvilket som helst CD-brenne-program. Jeg bruker Nero, og ender opp med en helt vanlig lyd-CD. Så langt er jeg fornøyd. Men en utfordring gjenstår: Hvis jeg har lyst til at kameraten min også skal få høre denne sangen, noe som loven så vidt jeg har forstått åpner for, hva da? Jeg kan jo brenne en CD til ham også, men CD’er er vanskelige ting å sende via epost. Ah, jeg kan jo gjøre slik som jeg vanligvis gjør hvis jeg har lyst til å sende CD-musikk til kompisen, jeg bruker et program som Audiograbber til å lage MP3-fil av CD’en.

Hva er da poenget?

Så der er vi – wma-fila har blitt til en mp3-fil, helt uten å bryte noen effektive kopisperrer, kun for å kunne spille av musikken med relevant utstyr og jeg har holdt alle kopiene innenfor den private sfære. Alt er derfor slik jeg forstår det innenfor lovens rammer, lovbrudd blir det først dersom jeg begynner å spre denne låten utenfor min personlige omgangskrets. Det mange lurer på nå er sikkert omtrent noe sånt som dette: Men hva er vitsen med DRM-beskyttelsen av musikken, da? Og det, kjære venner, det er tusenkronersspørsmålet.

Det eneste DRM-beskyttelsen gjør er å hindre en lite datakyndig bruker å spre musikken til sine venner, samt gjøre det vanskelig for ham eller henne å ta sikkerhetskopier av musikken. Jeg vet ikke, men regner egentlig med at dette medfører at salget av nedlastbar musikk er langt lavere enn det kunne ha vært med mer kundevennlige løsninger.

«Men hva med piratkopieringen», er det sikkert noen som tenker. For ikke å si roper. Og hva med den? Hvis kopieringsbeskyttelsen ikke er vanskeligere å «knekke» enn at jeg kan fjerne den på et par minutter med lovlige midler og gratisprogrammer og bruke omtrent like lang tid til å beskrive dette i en bloggings, er det da noen som i sin villeste fantasi tror dette skal bremse pirater i organisert kriminalitet så mye som et brøkdels sekund? Neppe.

Følg med – neste gang tar vi for oss DVDer! 🙂

Farvel til trackbackspam

Senikk.com snakker om problemer med kommentar- og trackbackspam, noe jeg heldigvis har kvittet meg med.

Det var trackbackspam som jeg måtte sloss lengst med. Jeg tenkte å innføre manuell validering, altså godkjenning, av alle trackbacks, men i den prosessen begynte jeg å studere trackbackpingene litt. Det som plutselig slo meg, er at stort sett alle reelle trackbacks kommer fra samme nett som serveren det tilbaketråkkes til befinner seg i, mens dette aldri er tilfellet for spammerne.

Så det jeg gjør, er at jeg godkjenner trackbacks automatisk dersom de første to oktettene av IP-adressen er lik i adressen som sender trackbackpingen, og i IP-adressen til URL’en det skal linkes til. Dersom de to ikke stemmer overens, settes trackbacken til godkjenning. Hittil har jeg ikke hatt en eneste feil i noen retning med dette systemet.

Kanskje litt skummelt å poste det her, i tilfelle noen av de store systemene fanger det opp. For da vil sikkert spammerne finne en vei rundt det. Men, men – vi får være glade for de slagene vi vinner i krigen mot spammerne.

Slow Wave

tenke.no leser jeg om Slow Wave. Det er et nettsted hvor folk kan sende inn drømmene sine, og så tegner Jesse Reklaw en fireruters tegneserie av dem.

Det blir noen merkelige, underfundige striper av det. Absolutt lesverdig. Det kommer en ny stripe hver lørdag, og det er et arkiv som går tilbake til 2002 her, så det er nok å lese!

Innbrudd på websider

En av de store nyhetene på lokalradioen i dag, var at hjemmesiden til Svolvær historielag hadde hatt innbrudd, med påfølgende defacing. Dette skjer fra tid til annen med websider, men denne gangen ble det en stor nyhet siden det kunne kobles opp mot karikaturtegningene av Profeten. All informasjon som lå der var også slettet, noe som bekymret de ansvarlige noe.

Eksperter fra fjern og nær kom med mer eller mindre gode råd til andre som var redde for å miste hjemmesidene sine. Blant de gode, var å være forsiktig med brukernavn og passord, og å bruke en seriøs webhotell-leverandør. Dette kan jeg uten videre slutte meg til. Men uansett er det en mulighet for at en hjemmeside blir slettet; med ond hensikt av terrorister, etter en brann, som følge av teknisk eller menneskelig svikt eller hva som helst.

Hvis du har en egen webside og vil sikre deg mot å miste informasjonen som ligger der, er det imidlertid bare en sikker måte å gjøre dette på. Ikke tro at du greier å sikre deg mot alt en potensiell inntrenger kan finne på, det er fåfengt. Inntrengerne er for mange, og har for god fantasi. Bruk heller noen minutter på å sørge for at et slikt innbrudd ikke får fatale konsekvenser. Og hvordan gjør man det?

Jo: ta backup!

Hvis du har en egen kopi av alle data på hjemmesiden din, vil du kunne gjenopprette den kjapt, uansett hva som måtte ha skjedd på serversiden, samme hvem som har brutt seg inn, samme hvem sin feil det var og uansett hvilke hensikter de hadde!

Hvis du lager en webside ved hjelp av lokale, statiske sider som lastes opp med FTP eller tilsvarende, har du jo allerede en lokal kopi av sidene dine. Og hvis du tar backup av viktige filer slik som jeg har skrevet om tidligere, så sørg for at du tar med disse filene også, da.

Men mange av oss har jo blogger eller andre dynamiske sider hvor dataene er lagret online i en eller annen form for database og bildene kanskje behandles mer eller mindre automatisk på serveren. Da kan sikkerhetskopiering utgjøre et litt større problem, men ikke et uløselig et. Det er to måter å angripe dette på:

  1. Ta sikkerhetskopi av alle ressursene
    Det vil si selve databasen. Hvis du har et eget publiseringssystem, finnes det sikkert en eksportmulighet i databaseadministrasjonen, spør gjerne den som drifter webhotellet ditt om hjelp. Sørg for å få med alle relevante tabeller. Ta også sikkerhetskopi av alle bilder du laster opp.
  2. Ta sikkerhetskopi av de ferdige sidene
    Dette er spesielt relevant hvis du bruker en tjeneste som du kun har tilgang til gjennom et web-interface. Du kan gjøre dette manuelt ved å lagre siden på disk når du har skrevet en ny sak, men da risikerer du å miste kommentarer og slikt som kommer i ettertid. Et program som for eksempel Wget kan hjelpe deg med å automatisere det, for eksempel en gang i uka eller noe sånt.

Det er ikke sikkert du ser behovet for dette akkurat nå. Og sannsynligheten for at en slik backup skal bli nødvendig er veldig liten. Men det er egentlig ikke så mye arbeid å venne seg til det. Og dersom du plutselig mister et år eller to av mer eller mindre velfunderte pludrerier og ytringer, så vil du nok før eller siden savne dem! Det er jeg helt sikker på.

Hvem eier informasjonen din?

Etter hvert har jeg opparbeidet meg en viss erfaring med web generelt og publiseringssystemer spesielt, og hvordan disse møter organisasjoner. Her skriver jeg om dette, og hva en organisasjon bør være oppmerksom på når de skal kommunisere via web. Denne artikkelen er på ingen måte tenkt som noen fasit, den er muligens ikke en gang ferdig. Konstruktive kommentarer mottas derfor med stor glede.

Den spede begynnelsen

Jeg har drevet med produksjon og implementering på web i noen år, og da jeg begynte, handlet det om hjemmesider. En kul side på webben som en kunne be kunder, venner og andre forbindelser se på. Og det gjorde de. Underholdningsverdien var langt viktigere enn informasjonen, uansett hvilken bransje man tilhørte, og dess flere effekter man greide å putte inn i en side, jo bedre var det. Det var svært viktig å vise at man kunne bruke alle de nyeste taggene som nettleserprodusentene hadde funnet opp som våpen i den store nettleserkrigen, mens ord som «standardkonform» og «tilgjengelig» var fullstendig fremmede. Det var en tid som ga mange morsomme websider, og som nok var viktig for å gjøre webben populær, men det var nok store ressurser som gikk til veldig lite i denne perioden.

Webutvikling i denne tiden var preget av lystmetoden. En eller annen i organisasjonen syntes web var spennende, og hadde lyst til å lage en webside. Eller det var noen som hadde en nevø som gikk på universitetet og kunne det her med Internett, og gjerne ville lage en webside hvis noen betalte en sydentur først.

Dette var begynnelsen på en lang periode hvor mange lærte veldig mye, ikke minst om hvordan man ikke skal produsere materiale for web. Dette førte til at man tenkte på nytt, og etter hvert så behovet for å gjøre ting slik Tim Berners-Lee i utgangspunktet hadde ment. Strukturert, validerende koding, tilgjengelighet og skille mellom presentasjon og struktur ble nye moteord, og HTML 4, CSS og stadig bedre nettlesere gjorde dette gjennomførbart. Les mer om dette i Wilhelm Joys Andersens glitrende foredrag «Vevutvikling med åpne standarder». Men det skjedde mye før vi kom så langt.

Et av problemene med mangelen på standardkonformitet ved nettsidene som ble produsert i webbens barndom viste seg når man skulle oppdatere eller legge til informasjon. Nettstedets struktur og tekniske løsning var ikke tilpasset dette, og mangelen på konsekvent oppmerking gjorde at de forskjellige oppsettene som florerte i det vi kanskje kan kalle første generasjon av webutviklingen ikke snakket særlig bra sammen.

WYSIWYG-editorene kommer

Dette ble forsøkt løst med verktøy som AOLpress, Mozilla Composer og Frontpage, i noe som da blir andregenerasjons webutvikling. Denne generasjonen preges av at man nå hadde skjønt at nevøen som kom hjem fra syden kanskje ikke var den rette til å styre bedriftens websatsning likevel, men at man selv måtte ha litt kontroll med hva som fantes der ute, og dermed kjøpte eller lastet ned et slikt verktøy til en eller annen ansatt man mente burde ha ansvaret for dette.

Disse verktøyene skulle la hvem som helst editere og oppdatere websider i verktøy basert på WYSIWYG uten tanke på underliggende teknologi, og uten det minste kjennskap til HTML. Denne måten å angripe problemet på viste seg ikke som den beste når det kommer til organisasjoner med et informasjonsbehov, og disse verktøyene løste heller ikke utfordringene man hadde møtt i «forrige generasjon» godt nok.

Verktøyene hjalp ikke brukerne med å strukturere websidene sine. Malfunksjonene som skulle sikre enhetlige uttrykk gjennom organisasjoner ble sjelden brukt etter intensjonene, og friheten til å gjøre hva som helst, gjorde at mange gjorde veldig mye rart. Jeg husker for eksempel en firmaside hvor absolutt alt innhold blinket taktfast.

De forskjellige programmene fungerte heller ikke om hverandre, av og til ikke engang fra versjon til versjon. Koden de produserte holdt ikke noen særlig kvalitet med mindre brukeren var svært dyktig, og de hadde gjerne for mye funksjonalitet, slik at brukerterskelen ble for høy for ikke-tekniske brukere, mens programmene på den andre siden ofte hadde for muligheter og utgjorde en tvangstrøye for de som hadde jobbet en del med web, og ville beholde kontrollen selv.

Publiseringsverktøyene møter kravene i tiden

Neste generasjonsskifte kom med et forsøk på å møte denne utfordringen, og det var med publiseringssystemenes fremvekst. Med et publiseringssystem forstår jeg her et oppsett hvor teknologien bak en web skilles fra det å produsere innhold til den, og hvor presentasjonen av innholdet bestemmes av systemet. Slike publiseringssystemer gir programmerere og webkodere mulighet til å arbeide med det de er gode på, grafiske designere kan få leke seg med former og farger ut fra visse kriterier satt i maler, og forfattere kan fokusere på innhold framfor fontfamilier. Organisasjonen kan sikres et helhetlig ansikt eller uttrykk utad, og både grafisk profil og innhold kan oppdateres og endres uten behov for å bygge om hele webben. Gode publiseringssystemer gir også god struktur på websidene, søkbarhet og tilgjengelighet. Dette er løsninger som i praksis gjør bruk av de mulighetene strukturert koding med skille mellom presentasjon og innhold har gitt oss.

Webpubliseringssystemer har selvfølgelig eksistert lenge, for eksempel har nettaviser vært tidlig ute med slike, men generasjonsskiftet kom når de ble allemannseie, både gjennom salg av ferdige pakker som ikke måtte utvikles for hver enkelt organisasjon, og gjennom åpne, fritt tilgjengelige løsninger hvem som helst kunne installere og bruke på sin egen webhotellkonto.

Framveksten av publiseringssystemer startet også bloggeeventyret, bloggetjenester som blogg.no og Blogger.com er ikke annet enn små, personlige webpubliseringssystemer. En wiki er et annet slikt system som har gitt oss for eksempel Wikipedia.

Etter min mening, er fremveksten av publiseringssystemene det mest produktive som har skjedd med webben. Da jeg begynte som blogger, var det store flertallet av norske bloggere teknisk orienterte. Vi var i utgangspunktet kanskje vel så opptatt av å utvikle publiseringssystemet vårt som å faktisk bruke det, til å kommunisere. På de snart fire årene som har gått, har dette forandret seg totalt. Nå skriver snart alle sammen om alt mulig, fra blomster til motorsykler. Det kan av og til virke som for mye av det gode, men jeg tror ikke det. Gode søkeverktøy og aktiv linking mellom mennesker som på den måten kvalitetssikrer hverandre, gjør at vi greier å skille vekk det uvesentlige.

Publiseringssystemer i organisasjoner

Men minst like viktig som bloggene er for uttrykkstrengte privatpersoner, ble publiseringssystemene for organisasjoner. Gode publiseringssystemer lot organisasjonen dra flere mennesker inn i informasjonsarbeidet. Informasjon kunne legges ut raskt, uten behov for noen behandling hos teknisk personell, og informasjon ble oppdatert med et tastetrykk. Web ble en kanal hvor teknologien ble av underordnet interesse for den som faktisk skulle kommunisere et budskap. Informasjonen ble det vesentlige – slik som den før nevnte Tim Berners-Lee tenkte det.

Slik jeg ser det, er det omtrent der vi er nå. Nyhetsmatinger i RSS og Atom har gjort fokuset på innhold enda viktigere, søkemotorene har fått en langt enklere jobb med indeksering etter som koden har blitt strukturert, og nye enheter som mobiltelefoner, multimedie-Tver og PSP-maskiner nyter godt av god koding. Vi har mange godt fungerende verktøy til informasjonsarbeid, og flere organisasjoner blir stadig flinkere til å bruke dem. Alt ser bra ut. Nesten.

Utfordringer med publiseringssystemene

Faren med publiseringssystemer ligger i det at man gjør seg for avhengige av dem. Informasjonen ligger i systemet, det er bra. Men hva om man ønsker å bruke informasjonen på en ny måte? Hva om man har kjøpt et publiseringssystem fra en leverandør, men ønsker å gå over til en annen, vil det være problemfritt å ta med seg informasjonen? Er dette kontraktfestet på noen måte? Det som er lagret i systemet, er som oftest lagret i en eller annen database. Finnes det dokumentasjon på dette formatet, og har organisasjonen mulighet til å hente ut dataene fra databasen i et format egnet for datautveksling?

Kort sagt: Hvem kontrollerer i realiteten organisasjonens informasjon?

Dette er viktig – av mange grunner. Den klareste er selvfølgelig at kontroll over informasjonen er nødvendig for å kunne sikre at riktig informasjon blir gitt. Hvis en leverandør av en eller annen grunn mislykkes i å gjøre jobben sin, må man ha mulighet til å ta med seg informasjonsdatabasen til en annen leverandør. Hvis alternativet er å bygge opp alt på nytt, har man plutselig egentlig ikke kommet særlig mye lengre enn i andre avsnitt av denne artikkelen. Og man må ha mulighet til å selv sikkerhetskopiere informasjonsbasen sin, slik at man ikke sitter med skjegget i postkassa ved force majeure.

I tillegg er det et økonomisk aspekt. Hvis man låser seg til et lukket system uten gode nok kontraktsforhold, risikerer man det en organisasjon (som skal få være uidentifisert) som ønsket en RSS-feed av nyhetssakene sine kom ut for – de ble presentert for en regning på 15.000 for noe som neppe var mer enn fire timers arbeid, og som kanskje burde vært en del av pakken i utgangspunktet. Men ny teknologi vil alltid kunne stille nye krav. Muligheten til å hente inn tilbud på utvidelser og omarbeiding uten å måtte begynne på nytt med et helt nytt publiseringssystem, burde være like selvfølgelig som muligheten til å endre på en nyhetssak uten å ringe en tekniker.

Noen høyttenkte tips:

Tredjegenerasjons webutvikling gir organisasjonene muligheten til å ta eierskap over informasjonen sin, men det krever at de faktisk gjør det. Det er mange utfordringer knyttet til det, og intensjonen min med denne artikkelen, har ikke på noen måte vært å prøve og belyse alle disse. Men jeg vil likevel slutte av med en liten sjekkliste over noen av de aspektene en organisasjon som skal implementere en publiseringsløsning bør tenke på:

  • Definer informasjonen. Hva trenger man å lagre i databasen? Hvordan vil en typisk sak se ut? snakker man om kun ren tekst, eller masse bilder, lydklipp og multimedia? Og hvordan vil det gå hvis vi om et år ombestemmer oss med tanke på dette?
  • Hvordan skal informasjonen presenteres? «Enn utskriftsvennlig versjon, da?» er det spørsmålet som oftest dukker opp dagen etter at man har lansert første utgave av en ny web. I tillegg har jeg nevnt mobiltelefoner og PSP, jeg har nevn RSS og Atom-matinger—og det er bare det jeg kommer på akkurat nå. Hva med det jeg ikke kommer på, og hva med det vi ennå ikke vet hva er? Systemet må kunne presentere informasjonen slik vi til enhver tid behøver. Validerings- og WCAG-krav spiller også inn her.
  • Søkemuligheter blir som oftest også føyd til helt til slutt i en prosess, og vil derfor ofte fremstå som litt av et stebarn. Prøv søkemuligheten i din favoritt-web-avis for å se hva jeg mener. Definer krav til søkbarhet med en gang, det er en av de viktigste navigasjonshjelpemidlene en moderne web har.
  • Hvordan er systemet dokumentert? Hvis man baserer seg på et Open Source-system, er vanligvis ikke dette det venskeligste kravet, all kode er tilgjengelig. Men hvis man kjøper et ferdig system, muligens et som driftes på leverandørens servere, er det viktig at man har god dokumentasjon og mulighet til å oppbevare sikkerhetskopier av informasjonen selv. God dokumentasjon og egne kopier gjør at man har mulighet til å migrere til et annet system dersom det eksisterende av en eller annen grunn ikke lenger er å anse som funksjonellt.
  • Hvordan skal informasjonen produseres? Brukergrensesnitt som ikke fungerer, gjør at folk ikke vil produsere informasjon til systemet. Å få puttet informasjon inn, er selvfølgelig noe av det mest vesentlige ved hele publiseringssystemet. Å ta høyde for at man i fremtiden vil kunne ønske å gjøre ting på en annen måte enn i dag, er lurt også her. Dokumentasjon er med andre ord et stikkord også her.
  • Hva er inkludert i driftsavtalen? Dette er egentlig et veldig selvfølgelig spørsmål, men jeg har flere ganger opplevd at en kunde forventer å få noe som leverandøren krever ekstra betalt for. Hvis kontrakten er uklar, går det gjerne slik som leverandøren ønsker.

Disse punktene er ikke bare viktige når man skal kjøpe en løsning fra andre, de er også viktige selv om organisasjonen selv har kompetanse til selv å utvikle, eller å ta i bruk et eksisterende, system. Folk flytter på seg og behov endrer seg, så dokumentasjon er minst like viktig. I tillegg må organisasjonen føle eierskap til systemet, noe prosessen med å komme fram til klare og entydige krav er den beste garantien for.

Gode nyheter for supportkonsulenter

Den neste utgaven av Windows kommer med dobbel brannmur, melder VG. Denne brannmuren skal ikke bare hindre informasjon i å komme inn i maskinen, men også å forlate den. Høres ikke det ut som en god idé? Jo, i alle fall for de som lever av PC-support.

Den doble brannmuren skal dermed gi brukerene bedre kontroll over hvilke data som strømmer gjennom maskinen.

Det er slettes ikke så vanskelig å ha kontroll over hva som «strømmer igjennom» maskinen. Det er bare å tenke seg om før man installerer all mulig slags programvare, det, og avinstallere den programvaren man ikke trenger. Hvis man i tillegg holder operativsystemet sitt oppdatert, har man ikke noe problem med programmer som gjør annet enn det en vil de skal gjøre.

Noen aktører satser også på svindel for å komme inn på brukernes datamaskiner, gjerne i form av falske advarsler om virusinfeksjon og spionprogrammer. Dermed blir brukeren ironisk nok lurt til å installere spionprogrammer.

Og her er en av nøklene i denne saken. Dersom en bruker narres til å installere noe, hjelper ikke all verdens anti-vare. For det første, kan programmer du installerer sette anti-programmene dine ut av spill. For det andre, finnes det ikke antivare som alltid gjenkjenner alle farer. La heller være å klikke på alt som dukker opp på skjermen.

Brannmuren gir også IT-avdelinger og administratorer mer kontroll over hvilke programmer som skal få lov til å sende informasjon ut.

Dersom IT-avdelingen har behov for slik kontroll, er det enklere, sikrere, billigere og mer oversiktlig å sette opp en brannmur sentralt. Hvilke programmer som skal få lov til å bruke Internett, kan også bestemmes sentralt. Med litt fornuftig tenkning, ser man at det vil være en langt bedre løsning.

Et av anvendelsesområdene som nevnes av Austin Wilson i Windows Client-gruppen hos Microsoft, er muligheten til å blokkere programmer for hurtigmeldinger som Messenger og GTalk.

Nettopp. Men hvorfor skal man installere programmer for så å blokkere dem? Hvis du har en Messengerklient på maskinen din, er det gjerne fordi du vil ha en messengerklient på maskinen din. Blokkerer du den fra å sende informasjon ut på nettet, har du ikke bruk for den.

Det finnes en rekke brannmurer som gjør det samme i dag. De som tar betaling for å hjelpe folk med Windowsproblemer, tjener gode penger på å åpne opp alt for mange blokkeringer i disse. Selv pleier jeg å anbefale at man avinstallerer dem etter at jeg har åpnet hullene. Når denne funksjonaliteten blir innebygget i Windows, vil vi nok se en drastisk økning i dette arbeidet.

Men det siterte avsnittet får meg ellers til å spekulere litt. Er det noe som mangler her? «GTalk» er Google sitt hurtigmeldingsprogram, en av hovedkonkurrentene til Microsoft . «Messenger» er ikke noe eget program, men kanskje de tenker på «Yahoo messenger» eller «AOL Instant Messenger», andre harde konkurrenter? Det er nok i Microsofts interesse å blokkere disse, men jeg er temmelig sikker på at brukerne ikke deler denne interessen?

Jeg tviler ikke på at Windows Vista vil komme med mye nytt og spennende, og gjøre datahverdagen enklere for mange. Men jeg er også ganske overbevist om at Microsoft også denne gangen vil gå på noen feilskjær. Jeg har en stygg mistanke om at denne brannmuren vil være et slikt. Men tro det eller ei; jeg blir veldig glad om jeg tar feil!

Google på Kinesisk

Kyrre poster i dag et glimrende eksempel på hvordan søkemotorers sensurering av enkelte sider kan gi ganske store utslag på treffene.

Et bildesøk etter «tiananmen», altså «Den himmelske freds plass», gir to temmelig forskjellige inntrykk på de to språkene. I tillegg prøvde jeg, selvopptatt som jeg er, å søke etter lasse dahl. Det søket lister meg temmelig høyt oppe på andre lands Googleversjoner, men på kinesisk er mine sider totalt fraværende. Grunnen til det er nok domenenavnet mitt på engelsk:

lassedahl.com

Men jeg mister nok ikke mange lesere – jeg har visst allerede vært sensurert i Kina en god stund. Kanskje like bra, så slipper jeg å få sinte, kinesiske mail på grunn av radbrekkinga mi av kjøkkenet deres. På den annen side, kan det jo være nettopp derfor jeg er sensurert, også? Hmm …

Nettradioanbefaling

Jeg er en gammel mann. Ok, litt gammel mann. Uansett, jeg blir litt nostalgisk av og til. Da er det godt å høre musikk fra den gangen man var ung. Det har man tatt hensyn til på Internett.

For eksempel har noen kommet på å lage SKY.fm. Det er musikkradio på nettet i mange kanaler. Jeg er glad i åttitallsutgaven, men i tillegg finner man jazz, klassisk, 70-talls, Country, New age, Reggae, Trance og hva det nå måtte være. Perfekt festmusikk – velg kategori, og jeg garanterer at enhver låt vil falle i smak hos noen.

Nå spiller de “Safety dance” fra “Men without hats”. Jeg husker den godt, men den er ikke i platesamlingen min, så det var et morsomt gjenhør.

Takk igjen, Christophe!

Ennå en gang har en Linuxinstallasjon gjort harddisken min utilgjengelig. Jeg vet ikke hva det er jeg gjør feil, men noe er det, for etter å ha installert Linux, gikk altså Windows i blåskjerm da jeg forsøkte å starte det operativsystemet.

Vel, Linux er foreløpig på forsøksstadiet på denne maskinen, så jeg satte inn Windows-CD’en og forsøkte å reparere oppstartsfilene. Da gikk sikkert Linux fløyten, men det var jo ikke så farlig. Jeg fikk bare delvis rett.

Linux gikk fløyten – men det gjorde også Windows. Etter at reparasjonen var ferdig, fant verken Windows eller Linux mer enn én partisjon mot tidligere 4. Og den partisjonen de fant, var på 2 GB – mens disken er på 160. Hm.

Nå har jeg jo backup av alle viktige filer, så noen ekstrem krise var det jo ikke. Men jeg har ikke noen full systembackup, så alt av programvare måtte ha blitt lagt inn på nytt, alle innstillinger gjøre om igjen og så videre. Kjedelig arbeid. Det var da jeg kom til å tenke på et program jeg har brukt med hell tidligere: TestDisk.

Jeg installerte Windows på nytt på en annen harddisk, lastet ned TestDisk og startet opp med den “ødelagte” harddisken som slave. TestDisk fant også først bare en partisjon, men da jeg ba TestDisk lete, fant den mine to Windowspartisjoner, og Linuxpartisjonen samt vekslefila til Linux. Jeg nøyde meg med å gjenopprette de to Windowspartisjonene, og startet opp med den “gamle” disken som master. Ikke noe hell.

Da startet jeg med gammeldisken som slave igjen, gikk inn i TestDisk en gang til og ba TestDisk skrive ny oppstartsektor. Så et nytt kjapt kabelbytte – og her er jeg. Alt er reddet, jeg slipper å gjøre alle innstillinger på nytt igjen – og jeg må vurdere om Christophe Grenier fortjener en ny donasjon …

PS: TestDisk kan også slette alle data på en disk – så det er ikke noe leketøy. All bruk av programmet skjer på egen risiko!