TOEKOMST INTERNET ONZEKER
(speciale column, 2 februari 2006)

 
In het laatste nummer van Technology Review, een uitgave van M.I.T. (Massachusetts Institute of Technology), enigszins vergelijkbaar met “onze” T.U. in Delft werd een uitvoerig artikel gewijd aan het groeiend aantal “beren” op het internet-pad. Als “verslaafde” gebruikers worden we geconfronteerd met virussen, spam, spying en soms ook hacking. Volgens internet architect David D. Clark zijn we beland op een kritisch punt. Het internet dreigt af te glijden in een neerwaartse spiraal als gevolg van steeds nieuwe toepassingen zoals draadloze apparatuur, ‘file sharing’, internet telefonie e.a.
 
Nieuw onderzoek
Onderhoud en veiligheid worden belangrijker naarmate het aantal toepassings-mogelijkheden groeit. Volgens Clark is het tijd om nog eens goed na te denken over de basisarchitectuur van het internet en over de ontwikkeling van een nieuw concept, dat in staat is op adequate wijze nieuwe gebruikstoepassingen te implementeren. M.a.w. het wordt tijd om een meer volwassen internet infrastructuur te creëren, waaraan hoge standaard gebruikstoepassingen kunnen worden gekoppeld. De National Science Foundation (NSF) heeft hiertoe vorig jaar de aanzet gegeven met een budget van 200 miljoen tot 500 miljard dollar. Bij een positief resultaat mogen revolutionaire ontwikkelingen op dit terrein worden verwacht. De veiligheid zal hierbij een cruciale rol spelen.
 
Risico’s

In augustus 2005 liet IBM weten, dat virus emails en veiligheidsaanvallen in de eerste helft van dat jaar met zo’n 50% waren gestegen. Ruim 43% van de 59 miljoen internet gebruikers in Amerika rapporteerde ‘spyware’ en ‘adware’ op hun computers te danken te hebben aan het bezoeken van websites. ‘Firewalls’ zijn intussen een begrip geworden, maar ze zijn niet altijd waterdicht. Ook ‘spam’ is gigantisch toegenomen. Volgens Symantec steeg het aantal spams in korte tijd van 800 miljoen naar 1,2 miljard. Het meest bedreigend zijn echter de ‘botnets’, waarmee clusters van computers middels “één druk op de knop” gehackt kunnen worden. Men noemt dit ook wel ‘wholesale hacking’ met als gevolg totale digitale ontregeling op grote(re) schaal. Dit werd opportuun door de invoering van de zgn. broadband toepassing.
 
Een en ander is mogelijk doordat het internet geen ingebouwde veiligheidsarchitectuur kent. Vandaar allerlei kunstgrepen middels beveiligingssoftware. Het vervelende is, dat er ook steeds nieuwe “gaten” in de bestaande programmatuur zijn te schieten, terwijl de beschermingskosten verder toenemen. In de V.S. is men er geenszins gerust op. Integendeel, men heeft angst voor een onverhoedse zware aanval, bijvoorbeeld gericht op Amerika’s energievoorziening. Eén goed geplaatste aanval is in staat om een substantiële ‘black-out’ te bewerkstelligen, die een deel van het land van het een op het andere moment lam zou kunnen leggen.
 
Volgens de Universiteit van Oxford in Engeland kan het nog erger door enkele codelijnen aan virussen toe te voegen, zodat de harde schijf wordt gewist of zelfs wordt uitgerust met foute gegevens waarmee spreadsheets en documenten volledig kunnen worden “verkankelemiend”. Door middel van toevoeging van een “beetje gif” aan de top-10 virussen is het al mogelijk om het internetverkeer in een groot deel van de wereld volledig te verlammen.
 
Toen het internet in de jaren ’60 werd ontwikkeld waren de oorspronkelijke protocols alleen bedoeld om de communicatie tussen een paar honderd wetenschappers en overheidsgebruikers te vergemakkelijken. Men was in die tijd totaal niet bedacht op “oneigenlijk gebruik” van het internet. Er bestonden eenvoudigweg geen voorzieningen om zulks te bestrijden. Daardoor loopt de beveiliging altijd achter de feiten aan! Nog afgezien van het feit, dat lang niet iedere gebruiker z’n ‘updates’ tijdig installeert.
 
Gaten in de dijk

Volgens diverse experts is er serieus reden om bezorgd te zijn. Firewalls, antivirus software, spam filters etc. dragen bij tot meer complexiteit, die in z’n totaliteit minder beheersbaar wordt. Eigenlijk zijn we alleen maar bezig om pleisters op de wonden te leggen om het bloeden te voorkomen. Hiermee kunnen we echter niet door blijven gaan. Er volgt een zgn. dead end en dan valt er niks meer te “pleisteren”. Of zoals Tom Leighton van Akamai Technology - dat er voor zorgt dat webpagina’s en toepassingen altijd beschikbaar zijn zelfs bij excessief bezoek - het uitdrukte: “we zijn continu bezig om gaten in de dijk op te vullen, terwijl er steeds meer gaten  bijkomen. Dit proces kan niet zo door blijven gaan, omdat de dijk z’n structuur volkomen kwijt dreigt te raken”.
 
Kosten

Microsoft’s software handelt om het internet en de PC. Hiertoe spendeert het bedrijf jaarlijks 6 miljard dollar voor onderzoek en ontwikkeling. Een derde of 2 miljard dollar gaat alleen al op aan beveiliging. Nieuw ontwikkelde toepassingen bleven in het laboratorium liggen, omdat men niet zeker was van de beveiligingsimplicaties. Intel vergelijkt de kosten van beveiliging als een steeds maar oplopend belastingtarief met een kostenplaatje van vele miljarden(!). Deze kunnen in de toekomst zo hoog oplopen, dat vele gebruikers kunnen/zullen afhaken.
 
Doelen

De huidige internet architectuur staat ook in de weg van nieuwe technologieën. Netwerken van nieuwe sensoren - die gezamenlijk zaken als bedrijfsprocessen, het weer of video beelden monitoren en interpreteren - kunnen het computeren even sterk veranderen als de PC 20 jaar geleden deed. Hiervoor is evenwel compleet nieuwe infrastructuur nodig. Maar ook hier draait het weer om veiligheid. Daarnaast zullen duidelijk andere doelen dienen te worden gesteld. Nieuwe protocollen zijn nodig voor een betere en snellere routing en betere ‘connectivity’ niet alleen tussen computers onderling maar ook tussen sensoren en processoren en ‘last but not least’ een beter en makkelijker onderhoud.
 
Aanzetten hiertoe zijn reeds gegeven zoals gemeld door de NSF maar ook door andere instituten zoals PlanetLab in Princeton, Emulab in Salt Lake City, University of Southern California en Winlab (Wireless Information Network Laboratory) in New Jersey.
 
Sceptici zeggen, dat een slimmer netwerk meer complexiteit met zich meebrengt en bijgevolg evenzo meer kans op mislukking in zich herbergt. Men vreest voor een geringere ‘efficiency’ en de open vraag of een dergelijk nieuwe infrastructuur uiteindelijk veiliger is. Niettemin worden de onderzoekspogingen van de National Science Foundation nieuwsgierig gevolgd. Dit mede tegen de achtergrond van de voorspelling, die al van 10 jaar terug dateert, dat het risico van een digitaal ‘Pearl Harbor’ steeds dichterbij komt. Om die reden dient het initiatief van de NSF warm te worden ondersteund, ongeacht de uitkomst van dit onderzoek. De tijd dringt temeer daar we wereldwijd steeds afhankelijker worden van het internet! 

Paul van der Veer
2 februari 2006
www.score-investments.nl