
Elon Musk insiste sulla necessità della costruzione di una colonia umana su Marte. Il fondatore di SpaceX, apparso durante il festival SXSW ad Austin, Texas, ha rilasciato ancora una volta dichiarazioni riguardanti il futuro dell’umanità e ha confermato che il suo gruppo sta costruendo quella che può essere considerata come la prima astronave interplanetaria che dovrà essere diretta su Marte e che trasporterà esseri umani.
Secondo il magnate, i primi sbarchi umani su Marte potrebbero avvenire già nel 2024, nonostante in molti gli abbiano fatto capire che le sue previsioni risultano sempre un po’ troppo ottimistiche.
Il razzo che dovrebbe arrivare su Marte, noto anche come BFR, o “big fuckiing rocket”, vanterebbe il doppio della spinta di decollo del Saturn V, il razzo utilizzato per mandare gli astronauti della NASA sulla Luna.
Quello su cui si sta concentrando la società di Musk, tuttavia, è la riusabilità del razzo stesso dato che si prevedono diversi lanci e ciò comporterebbe una riduzione drastica dei costi: “La questione della riusabilità è davvero fondamentale per la missilistica. È la svolta fondamentale che è necessaria”.
La proiezione ottimistica, in relazione ai costi, di Musk è quella di tenersi sotto ai 5 o i 6 milioni di dollari per lancio.
Caratteristiche come quelle relative ai costi permetteranno, secondo Musk, di poter finalmente prendere in seria considerazione la costruzione di basi permanenti umane sia su Marte che sulla Luna.
Ed è proprio all’ipotetica stazione umana su Marte a cui Musk dedica la sua attenzione. Secondo il magnate, potrebbero esserci, nel prossimo futuro dell’umanità, epoche oscure, soprattutto se dovesse scoppiare la cosiddetta terza guerra mondiale, un evento che potrebbe portare all’estinzione o ad una diminuzione molto forte della popolazione umana sulla Terra.
Secondo Musk una colonia umana su Marte porterebbe avanti la “fiaccola” della cultura umana nel peggiore dei casi.
A tal proposito ritorna anche sul discorso dell’intelligenza artificiale, considerata da Musk come uno dei pericoli che potrebbero mettere definitivamente la parola fine all’umanità: “L’IA è molto più pericolosa delle armi nucleari. Quindi perché non abbiamo alcun controllo regolamentare?”