Dacă controlul depinde doar de un software și de poliție, ce s-ar întâmpla dacă software-ul se revoltă împotriva creatorulul și se dotează cu autonomie pentru a amenda șoferii în mod autonom fără nici un tip de control autoritar sau legal? La fel ca și Hal 9000, dar pe străzi în 2016. Este posibil ca acest lucru să se întâmple deja și consecințele sunt devastatoare atât pentru șoferi cât și pentru firmele de transport rutier.
În cursul unui control recent efectuat în Champigneulles, în Franța, în martie 2016, în care autoritățile au emis o amendă totală de 33.675 euro, am constatat că software-ul de analiză a tahografelor utilizat de autoritățile franceze (OCTET) nu interpreta disponibilitatea modul de echipă ca întreruperea conducerii continue . Am bănuit că această nouă interpretare se datorează unei actualizări de software, dar nici o altă țară europeană nu ar accepta acest lucru. Mai tarziu. am continuat să vedem mai mult de 200.000 de euro în amenzi emise de autoritățile franceze pentru același motiv.
Ca urmare a presiunii din industrie, în aprilie 2016, Comisia Europeană, prin intermediul Direcției Generale Move, a ținut o ședință la care au participat toate autoritățile relevante pentru a discuta problema. La această reuniune, reprezentantul francez a susținut că "Franța nu și-a schimbat interpretarea conducerii continue"; în plus, a atribuit amenzi ofițerilor de poliție singuri.
Dacă acest lucru este adevărat și nu avem nici un motiv să ne îndoim, înseamnă că OCTET a preluat controlul asupra sistemului. Aceste amenzi nu sunt impuse conform legii sau interpretate de Franța, însă OCTET a emis amenzi pentru că a devenit autonomă și a început să "ucidă" singură. Ceea ce este sigur este că OCTET interpretează fișierele digitale în acest fel. Avem dovezi ample care să susțină acest lucru și este disponibil pentru orice autoritate care dorește să o vadă. Simultan, același lucru s-ar putea întâmpla, poate mai atent, în toate țările europene care controlează Regulamentul 561/06.
Ceea ce Stanley Kubrick, Ridley Scott și Alex Garland nu ne-au spus este că AI poate fi controlat teoretic. Asta e corect. Teoria verificării formale a software-ului se ocupă tocmai de această problemă și este folosită pe scară largă în acest sens în industria aviației și a spațiului. În principiu, ar fi posibilă controlul software-ului AI, cu toate că din punct de vedere matematic încă ridică unele probleme din cauza complexității ridicate.
În orice caz, există deja un model matematic verificabil în mod oficial pentru software-ul de analiză a tahografelor pentru Regulamentele 561/06 și 165/2014, care ar împiedica orice programator sau dezvoltator de software să inventeze sau să interpreteze legea așa cum o mulțumește. Comisia Europeană este conștientă dar acest lucru ar însemna o mică revoluție tehnologică.
Să luăm în considerare un exemplu practic. Începem cu camionul tău; să o numim Discovery 1 și o să conducem într-o fabrică numită Jupiter. Camionul este echipat cu un tahograf de la proiectantul HAL, iar versiunea software este de 9000. În timpul călătoriei, tahograful începe să comunice cu șoferul, spunându-i că va depăși timpul de conducere continuu și astfel se oprește. Știe că este o minciună. Dar el nu va respecta HAL 9000? O să nege faptul că HAL controlează sistemele de camioane în călătoria spre Jupiter?
Și atunci când HAL 9000 începe să spună că șoferul nu și-a descărcat cardul șoferului în ultimele 30 de zile și că ar trebui făcut, ce va face cu fișierul șoferului descărcat cu o zi înainte?
Când HAL indică faptul că vehiculul a călătorit în viitor, km 16,777,777 la data 07/02/2106, 06: 28.15. Unde se termină ...?
Să vedem ce face Comisia Europeană - să-și apere cetățenii sau mașinile.
Guillermo Errezil
Fizician teoretic