
Vi är redan mycket beroende av internetanslutna enheter för att ta oss igenom dagen, och de blir alltmer artificiellt intelligenta. Digitala assistenter som Amazons Alexa växer i popularitet, självkörande bilar rullar mot horisonten och militären testar drönare som kunde fungera utan mänsklig övervakning . Den stora frågan är, hur säkra är dessa saker från hackare?
Vi grävde i den frågan på vetenskapsfredagen förra veckan , med en panel av experter som ingick i en nyligen genomförd debatt vid Arizona State University om framtiden för A.I. Här är några tips från vårt samtal:
Det finns redan en utbredd sårbarhet bland våra anslutna enheter.
Ta bilar till exempel.
'Våra bilar och andra Internet-of-Things-enheter är faktiskt ganska hackbara för tillfället', säger Kathleen Fisher, professor i datavetenskap vid Tufts University.
Till exempel, 'det finns ungefär fem olika sätt som hackare kan nå en bil utifrån genom Bluetooth-gränssnittet som låter dig prata med bilen utan dina händer, eller genom telematikenheten som ordnar att ringa efter en ambulans om du är i en olycka, sa Fisher. 'Och när en hackare väl har brutit sig in kan de ändra mjukvaran som styr hur bilarna bromsar, eller accelererar, eller styr, eller gör många andra funktioner.'
'I grund och botten är bilar nätverksanslutna datorer på hjul och är ganska sårbara för fjärrangrepp,' sa hon.
Medicinsk utrustning är också känslig.
Till exempel datasäkerhetsexperten Jerome Radcliffe visade för några år sedan 'att han trådlöst kunde hacka sin insulinpump för att få den att leverera felaktiga doser av medicin', tillade Fisher.
Elektroniska röstningssystem är inte heller immuna.
'Jag tycker att en intressant sak är att ju mer du vet om datorer, desto mindre bekväm är du med elektronisk röstning,' sa Fisher. 'En röstmaskin kommer att räknas enligt den senaste versionen av programvaran som finns på den. Och det kan vara den korrekta versionen av programvaran som installerades av personerna som styrde valet, men det kan vara så att den hackades av någon, eller att någon sticker in en tumme och ändrar koden.” Och då räknas det enligt den nya koden.
Varför är våra enheter så mottagliga?
För det första är Internet of Things-produkter ofta byggda utan säkerhetsproblem i åtanke, enligt Fisher. 'Folk är entusiastiska över funktionaliteten och tjänsterna som dessa nya enheter tillhandahåller och skyndar sig att få ut produkter där ute,' sa hon. 'Och vi har inte ett särskilt bra sätt att se till att dessa enheter är byggda enligt bra säkerhetsstandarder. Det är väldigt svårt att mäta säkerhet, och det är väldigt svårt att tjäna pengar på säkerhet.” Vem som betalar för säkerheten och huruvida konsumenterna skulle betala en premie för säkra enheter eller inte 'är verkligen oklart', säger Fisher.
Vad mer är, 'att få riktigt bra säkerhet är ett supersvårt problem. Det finns många, många dimensioner som du måste göra rätt om du vill att systemet ska vara säkert, säger Fisher.
Tänk på ditt hus, till exempel. 'För att göra ditt hus säkert räcker det inte att låsa ytterdörren. Du måste låsa ytterdörren och bakdörren. Och det räcker inte. Du måste låsa alla fönster”, sa Fisher.
Det är samma sak i en dator. 'Du måste låsa alla ingångar. Du måste se till att dina användare är välutbildade, att de inte ger bort lösenordet till någon som ringer i telefon och är övertygad om att de är IT-avdelningen och behöver lösenordet. Du måste ha rätt hårdvara”, sa Fisher. 'Det är bara många, många saker som du måste göra rätt. Och om du inte får dem alla rätt, så finns det en sårbarhet som en hackare kan bryta sig in i.'
Vilken typ av A.I. kan vi förvänta oss attacker?
'När vi bygger system som är smartare, kan de göra mer för oss genom att använda maskinseende, maskininlärning, för att förstå situationer', säger Subbarao Kambhampati, professor i datavetenskap och teknik vid Arizona State University. 'Vi introducerar vad jag refererar till som 'nya attackytor' - det vill säga nya platser för hackningar.
I så kallade maskininlärningsattacker kommer hackaren på ett sätt att kontrollera strömmen av data som kommer in i ett system och få systemet att göra saker som designerna inte hade för avsikt.
Till exempel förra året ett team av forskare demonstrerade hur inmatning av falska indata till ett bildigenkänningssystem – potentiellt den typ som kan användas i självkörande bilar – kan få det att felklassificera en stoppskylt som en vikskylt.
Eric Horvitz, VD för Microsoft Research Labs huvudgren i Redmond, Washington, hade en något kuslig förutsägelse: 'Jag tror att vi alla kan anta att inom några år, A.I. system och avancerad grafik och rendering kommer verkligen att kunna förfalska din identitet på ett högtroget sätt, till och med videor där du pratar och säger saker, videor av ledare.”
Finns det något sådant som att vara 'hacksäker'?
Tyvärr är ''hack-proof' ett koncept som inte är väldefinierat', sa Fisher. 'Du måste alltid prata om hacking med avseende på en hotmodell och vilken typ av saker du kan föreställa dig att en angripare gör.'
De goda nyheterna är dock att 'det finns arbete på gång för att tänka igenom bästa praxis och potentiellt, en dag, standarder', enligt Horvitz. Han sa att en grupp ringde Partnerskap på A.I. till gagn för människor och samhälle – bildad av Amazon, Apple, Facebook, Google, DeepMind, IBM, Microsoft och andra – etablerades med det målet i åtanke.
Vad är några sätt vi kan förbättra säkerheten?
Som Fisher påpekade kan vi inte lita på gammaldags mänsklig övervakning. 'Människor kommer inte att vara tillräckligt snabba för att kunna ingripa meningsfullt i många fall. Och i andra fall kommer tidsskalorna att vara så långa att människorna inte kommer att kunna ingripa, sa hon. 'Så jag tror att antingen tidsskala - för kort eller för snabb - betyder att folk inte riktigt kommer att kunna övervaka.'
Ett alternativ kan då vara att använda A.I. att slåss mot A.I. hackar, enligt Subbarao Kambhampati. 'Jag tror att det kommer att bli en kapprustning', sa han. 'Vi använder dessa verktyg eftersom de är väldigt användbara. Men allt som är användbart kan också kapas. Och det ger du inte upp – du gör i princip säkerhet och säkerhet till ett underhållsmål. Och du måste använda samma teknik för att arbeta för att säkerställa.”
Fisher varnade dock för att använda A.I. att bekämpa hacker har sina fallgropar. 'Problemet är att då är du begränsad av omfattningen av det artificiella intelligenssystemet - hur du byggde det, hur du tränade det, vad du förutsåg och vad du byggde in i det, eller vad det kunde sluta sig till. Den typen av okända okända är en pågående utmaning.”
Dessa citat har redigerats lätt för tydlighetens skull. För en fullständig utskrift, klicka här och scrolla ner till 'avskrift'.