AI: Next step in Cybersecurity

Kunstmatige Intelligentie (of Artificial Intelligence, AI) is ‘the next big thing’ in het IT-domein. De techniek zal echter niet alleen voor ‘the good cause’ worden ingezet. Wat kan er gebeuren als AI in handen komt van minder ethische figuren?

Bij Kunstmatige Intelligentie en (de subset) Machine Learning denken we snel aan zelfrijdende auto’s van Waymo (Google) of AutoPilot (Tesla) en niet direct aan je eigen smartphone. Maar vele applicaties op je smartphone maken inmiddels gebruik van deze technologie, zoals:

  • zoekmachines; Search (Google) en Bing (Microsoft) bieden zoekresultaten en aanbevelingen aan op basis van het gebruikersprofiel en zoekhistorie;
  • spraakherkenning; zoals Siri (Apple), Cortana (Microsoft) en Alexa (Amazon) die leveren. De ondersteuning is helaas nog maar in een beperkt aantal talen;
  • gezichtsherkenning; Google en Facebook herkennen (taggen) foto’s waar jij of je vrienden op staan. Daarnaast ‘herkent’ Google het onderwerp waarop vervolgens de foto’s worden gerangschikt.

Meer serieuze toepassingen zijn te vinden in de medische wereld waarbij Watson (IBM) de mens bijstaat in het classificeren van diverse vormen van huidkanker. Daarnaast wordt Watson ook in de game-industrie ingezet en wist het in Amerika het populaire spel Jeopardy te winnen. Grote investeringen zijn altijd te vinden in de wapenindustrie. Deze is al verder dan wij durven te vermoeden. Zo zet ons eigen defensieapparaat al zelfsturende drones en killerrobots in.

Anomaly Detection 2.0
Het zal nog lang duren voordat machines gelijkwaardig zijn aan de mens. Maar als het tot een specifieke taak komt, zijn zij de mens al gepasseerd. Zo is de jaarlijkse strijd tussen mens en IBM’s schaakcomputer Deep Blue vanwege de overmacht van de computer al lang niet spannend meer. Wiskundige algoritmes winnen het van intelligentie.

Ook in cybersecurityland worden Kunstmatige Intelligentie en Machine Learning al breed ingezet. Denk hierbij dan aan diverse mechanismen voor het detecteren van spam, inbraken, fraude, malware en andere onregelmatigheden. Dit laatste is het zoeken naar de digitale speld in de virtuele hooiberg ofwel de afwijking in de big data. Leveranciers zoals Darktrace, Logz, Anodot en Tatvic bieden al oplossingen.

In mijn ogen is dit enkel nog maar een opmaat naar het echte werk. Immers, elke organisatie bestaat uit een enorm arsenaal aan componenten zoals servers, werkstations, smartphones, printers, netwerkswitches, firewalls en ga zo maar verder. Allemaal nodes in het netwerk, of anders bezien sensoren die informatie over gedrag kunnen leveren. Netwerkgedrag, applicatief gedrag, gebruikersgedrag, allemaal data, veel data, big data, de grondstof voor Machine Learning oftewel Anomaly Detection 2.0.

Cybercrime 2.0
Nu is security een oneindig schaakspel waarbij de crimineel met wit speelt en daarmee altijd in het voordeel is om een nieuwe aanval op te zetten. Vervolgens aan zwart de uitdaging deze aanval weer te pareren. Criminelen zullen ook zeker Kunstmatige Intelligentie en machine learning inzetten voor hun onethisch gewin.

Vraag is snel: ja maar hoe dan? Deze vraag is natuurlijk niet makkelijk te beantwoorden. Organisaties en vooral hun medewerkers laten enorm veel sporen achter op het internet. Sporen en dus data die als input gebruikt kunnen worden voor verdere analyse op basis van Machine Learning. Mogelijk is hieruit de beste aanvalsvector te destilleren.

Wake-upcall
Ook criminelen gaan gebruikmaken van Kunstmatige Intelligentie. Mogelijk niet direct de criminele zzp’er maar wel de goed georganiseerde misdaad die hierin kan investeren. Vreemd genoeg schuilt in deze laatste categorie niet het grootste gevaar. Dat komt uit het grijze gebied tussen goed en kwaad. De glijdende schaal naar het onethische. Zo waarschuwen diverse kenners voor de verstrekkende gevolgen:

  • Elon Musk (Tesla): “Kunstmatige Intelligentie is de grootste dreiging voor de mensheid.
  • Stephan Hawkins: “Kunstmatige Intelligentie zal de grootste gebeurtenis in de menselijke geschiedenis zijn maar helaas zou het ook de laatste kunnen zijn.
  • Bill Gates (Microsoft): “Ik denk dat we ons wel zorgen moeten maken om Kunstmatige Intelligentie.

De website ‘Ban Lethal Autonomous Weapons’ gaat nog een stap verder. Zo waarschuwt het voor de reële gevaren. Bij het zien van de film ‘Autonomous Weapons’ is er weinig fantasie nodig om een idee te krijgen van wat er allemaal kan gebeuren als dergelijke technologie in handen komt van minder ethische figuren.

Het is duidelijk dat de behoefte zal verschuiven van programmeurs die een programmeertaal kennen naar data-analisten die algoritmen kennen.

> Dit artikel werd op 17 mei 2018 gepubliceerd op Securityvandaag.nl.

Advertenties

Over Ramses Sloeserwij

Visionairy on Security ● Cybercrime ● Cyberwar ● Architecture ● Identity & Access Management ● Compliance ● Risk Management ● Governance ● Mobile Security
Dit bericht werd geplaatst in New Technology, Security en getagged met , . Maak dit favoriet permalink.

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google+ photo

Je reageert onder je Google+ account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.