Polizze auto a confronto… Se un’auto a guida autonoma si trovasse in una situazione di pericolo, chi cercherebbe di salvare?


sabato 22 ottobre 2016
scritto da Valerio Guiggi

Un dilemma profondo e per certi versi spaventoso è il comportamento di un’auto a guida autonoma in situazioni di difficoltà. Sarà una tecnologia che presto entrerà nelle nostre case, ma alcune sue decisioni potrebbero non essere piacevoli.

In un mondo, come il nostro, nel quale il futuro non è alle porte, ma ha già bussato ed è ampiamente entrato nelle nostre case, si risollevano una serie di dilemmi morali che ci fanno riflettere molto sul mettere noi stessi e la nostra stessa vita nelle mani di un oggetto inanimato e incapace di pensare. In questo articolo parliamo delle auto a guida autonoma, una delle innovazioni più belle del futuro, relativamente ad una questione tutt’altro che leggera.assicurazione auto on line

image

Perché un’auto a guida automatica deve riuscire a sostituire il condicente in tutto e per tutto. E se in un’autostrada, che è una strada completamente dritta, questo alla fine è piuttosto facile, quando si tratta di strade di montagna può essere più complesso; ancora più complesso, però, sarebbe per un’intelligenza artificiale affrontare delle situazioni di pericolo in cui già un conducente umano si trovarebbe davanti a delle scelte difficili da compiere. Un esempio di questo è la possibilità che un’auto a guida autonoma si trovi davanti ad un gruppo di bambini e non abbia abbastanza spazio per frenare: come si comporterà?


Alcuni giornalisti lo hanno chiesto ai responsabili dello sviluppo di varie aziende, e la risposta, almeno a sentirla la prima volta, è abbastanza spaventosa. In pratica, se un’auto si trovasse in una situazione come quella descritta, cercherebbe per prima cosa di salvare il conducente, mettendolo quindi al primo posto rispetto a qualsiasi altra persona, bambini compresi. In effetti, anche se questa cosa è spaventosa, il ragionamento che fanno i costruttori è il più logico che si possa fare: per un’auto, ciò che si trova davanti è un ostacolo piccolo, che non metterebbe a rischio la vita del conducente se ci sbattesse contro. Se siano persone o siano tronchi l’auto non lo sa, mentre sa che nell’abitacolo, al posto del conducente, c’è sicuramente una persona.

image

Da questo anche altre conseguenze: se per evitare un ostacolo grande, ad esempio, dovesse decidere se andare fuori strada a destra o a sinistra, sceglierebbe la destra perché, anche in questo caso, il passeggero potrebbe esserci o non esserci, mentre il condicente, che è a sinistra, sicuramente c’è. Insomma, in un modo cerca di salvare una vita, nell’altro cercherebbe di salvare la vita di una persona che non sa se c’è.

image

Un dilemma davvero interessante sulle conseguenze che la tecnologia, in futuro, potrebbe avere: ovviamente -specificano i costruttori- il loro scopo è quello di evitare non tanto la morte di qualcuno, quanto in generale una situazione mortale, prevenendola prima che si possa verificare; il problema è che la strada è troppo imprevedibile, già per una persona: figuriamoci l’imprevedibilità che si troverebbe davanti una, necessariamente più limitata, intelligenza artificiale.