Isaac Asimov: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
sfid
Bard93 (discussione | contributi)
Annullata la modifica 553405 di AnjaQantina (discussione)
Riga 20:
*Se la corrente ti sta portando dove vuoi andare, non discutere. (da ''Destinazione Cervello'')
*La stranezza è nella mente di chi la percepisce. (da ''Preludio alla fondazione'')
 
===Senza fonte===
{{senza fonte}}
 
*La disumanità del [[computer]] sta nel fatto che, una volta programmato e messo in funzione, si comporta in maniera perfettamente onesta.
*Non ho [[paura]] dei computer, ma della loro eventuale mancanza.
*Se il mio dottore mi dicesse che mi rimangono solo sei minuti da vivere, non ci rimuginerei sopra. Batterei a macchina un po' più veloce.
*Se la popolazione mondiale continuerà a crescere con il ritmo attuale, tra duemila anni l'umanità peserà più della terra.
*Sono conscio dello stato della mia [[ignoranza]] e pronto a imparare da chiunque, indipendentemente dalla sua qualifica.
*Non c'è modo per cui da solo possa salvare il mondo, ma mi vergognerei di far passare un solo giorno senza provarci.
*Non lasciare mai che il tuo senso morale ti impedisca di fare ciò che è giusto.
*Se ci fossero meno imbecilli i furbi morirebbero di fame.
*Il problema non è morire, è smettere di scrivere.
*Non leggo velocemente, capisco velocemente.
*Non capisco tutto questo clamore per lo sbarco dell'uomo sulla luna. Io l'avevo previsto trent'anni fa e fui deriso. Già, ma [[Jules Verne]] l'aveva previsto un secolo prima.
*La conoscenza scientifica dell'uomo comune è mistica: l'individuo medio pensa che l'astrologia sia una scienza e che la telepatia sia un fatto dimostrato.
*Non crederò nei visitatori estraterrestri sino a quando uno di essi si manifesterà in maniera incontrovertibile. Non credo di esprimere con ciò un pensiero reazionario: ho lo stesso atteggiameno nei confronti di angeli, demoni, fantasmi e spiriti vari, tutti fenomeni che hanno seguaci da sempre e molti più testimoni oculari dei dischi volanti.
*La sovrapopolazione è un pericolo di gran lunga maggiore dell'arsenale nucleare. Per non morire di guerra atomica basta non premere mai quel bottone, mentre per morire per le conseguenze dell'esplosione demografica basta non fare nulla.
*Credo che sia impossibile pensare in termini di nazioni realmente indipendenti. Il mondo è ormai una singola entità economica, e penso che avremo una società completamente globalizzata entro il 2087.
*Gli ideali in cui credo sono pace, libertà e sicurezza per tutti. Lo stato-nazione è obsoleto: abbiamo bisogno di un governo mondiale federale.
*Il mio ventunesimo secolo ideale vede un mondo in cui i computers e i robot svolgono i lavori più alienanti, mentre la società globale è impegnata nella conquista dello spazio.
*Vorrei dichiarami ottimista circa il futuro dell'umanità ma accidenti, siamo così stupidi e miopi che mi chiedo se saremo in grado di alzare gli occhi sul nostro mondo prima di suicidarci.
*I pari diritti alle donne sono il prerequisito necessario per la soluzione del problema demografico e la prima conseguenza di essa.
*Essendo io immigrato in questa nazione quando ancora essa accoglieva tutti, non potrei mai in nessuna circostanza pensare: ''Ok io sono dentro e al diavolo tutti gli altri!''
*L'unica ragione per essere contro l'aborto è proporre un metodo più umano di controllo delle nascite.
*Pur non essendo omosessuale non vedo niente di "sbagliato" o "pericoloso" nell'omosessualità, anzi essendo a favore di una seria politica demografica, penso che tutti i metodi incruenti atti a controllare il tasso di nascite e tra questi l'omosessualità, dovrebbero essere considerati positivamente e definiti un diritto.
 
[[Immagine:Isaac_Asimov_on_Throne.png|thumb|right|Immagine di Asimov seduto su un trono simboleggiante i suoi principali lavori]]
Line 29 ⟶ 55:
*'''Terza Legge''':<br /> Un robot deve salvaguardare la propria esistenza, a meno che ciò non contrasti con la Prima o la Seconda Legge.
 
==== La legge Zero ====
 
*'''Legge Zero''':<br/> Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno. (postulata da R. Daneel Olivaw, in I robot e l'impero)