Portale:Informatica

In questo articolo esploreremo nel dettaglio il tema Portale:Informatica, analizzandone le origini, l'evoluzione e la rilevanza nella società odierna. Presentando ai lettori la storia e il contesto di Portale:Informatica, approfondiremo le sue molteplici sfaccettature e dimensioni, dal suo impatto culturale alle sue implicazioni nella vita quotidiana. Attraverso un approccio globale, esamineremo le diverse prospettive e opinioni su Portale:Informatica, fornendo una visione panoramica che ci permetterà di comprenderne l'importanza nel panorama contemporaneo. Entro la fine di questa lettura, speriamo che i lettori abbiano acquisito una comprensione più completa e arricchita di Portale:Informatica, sentendosi allo stesso tempo motivati ​​a riflettere sul suo significato e sulla sua rilevanza nelle loro vite.

Portale Informatica

Il Portale Informatica è un punto di raccolta per le voci riguardanti l'informatica, lo studio dei fondamenti teorici dell'informazione e della computazione e delle tecniche pratiche per la loro implementazione e applicazione nei sistemi informatici. L'informatica è frequentemente descritta come lo studio sistematico dei processi algoritmici che descrivono e trasformano l'informazione. È il punto di incontro di almeno due discipline autonome: il progetto, la realizzazione e lo sviluppo di macchine rappresentatrici ed elaboratrici di numeri e i metodi di risoluzione algoritmica di problemi dati.

Storia dell'informatica

L'informatica ha radici molto antiche, in quanto sistemi per automatizzare il trattamento dei dati e delle operazioni aritmetiche erano noti già ai Babilonesi intorno al X secolo a.C., in India e in Cina forse addirittura prima. L'informatica in senso moderno, però, nasce soprattutto dal lavoro di precursori quali Pascal e Gottfried Leibniz, iniziatori come Babbage, Ada Lovelace, Zuse, Atanasoff, ancora Alan Turing, Stibitz e Howard Aiken, creatori dei primi progetti computazionali di vasto respiro come de Finetti, von Neumann e Wiener.


Voci in vetrina

Il Data Encryption Standard (DES) è un algoritmo di cifratura scelto come standard dal Federal Information Processing Standard (FIPS) per il governo degli Stati Uniti d'America nel 1976 e in seguito diventato di utilizzo internazionale. Si basa su un algoritmo a chiave simmetrica con chiave a 56 bit. Questo algoritmo all'inizio ha suscitato molte discussioni per via della sua chiave di codifica corta e per via di alcune scelte progettuali che erano segretate. Si supponeva che dietro queste scelte vi fosse la National Security Agency (NSA) e l'inserimento di una backdoor. Di conseguenza il DES è stato oggetto di un'intensa analisi di tipo accademico che ha contribuito in modo notevole allo sviluppo delle conoscenze che sono alla base dei moderni algoritmi di cifratura e delle moderne tecniche di crittoanalisi.

Attualmente DES è considerato insicuro per moltissime applicazioni. La sua insicurezza deriva dalla chiave utilizzata per cifrare i messaggi, che è di soli 56 bit. Nel gennaio del 1999 distributed.net e Electronic Frontier Foundation collaborarono per rompere pubblicamente una chiave di crittazione, e ci riuscirono in 22 ore e 15 minuti. Con le attuali potenze di calcolo si può forzare una chiave DES in poche ore esaminando tutte le possibili combinazioni. L'algoritmo è ritenuto sicuro reiterandolo 3 volte nel Triple DES, anche se in teoria così è esposto ad alcuni attacchi. Negli ultimi anni DES è stato sostituito dall'Advanced Encryption Standard (AES) un nuovo algoritmo che elimina molti dei problemi del DES.


continua...
Voce della settimana

AGPgart è un modulo del kernel dei sistemi operativi Linux e Solaris che fornisce supporto alle possibilità di trasferimento dati specifiche delle schede video AGP.

Il driver AGPgart sfrutta la memoria primaria del sistema per migliorare la visualizzazione grafica. Questa caratteristica è utile per componenti privi di memoria video dedicata, come le schede grafiche integrate Intel e AGP, che devono riservare parte della memoria primaria per il loro buffer video.

Calendario voce della settimana

Citazioni

(da Informatica su Wikiquote)

  • L'informatica non riguarda i computer più di quanto l'astronomia riguardi i telescopi. (Edsger Wybe Dijkstra)
  • Errare è umano, ma per incasinare davvero tutto ci vuole un computer. (Legge di Murphy- Quinta legge dell'inattendibilità)
  • I computer sono inutili, possono dare solo risposte. (Pablo Picasso)
  • Il calcolatore è straordinariamente veloce, accurato e stupido. L'uomo è incredibilmente lento, impreciso e creativo. L'insieme dei due costituisce una forza incalcolabile. (Albert Einstein)
  • La disumanità del computer sta nel fatto che, una volta programmato e messo in funzione, si comporta in maniera perfettamente onesta. (Isaac Asimov)
  • Non ho paura dei computer, ma della loro eventuale mancanza. (Isaac Asimov)
  • Il testing non può mai rivelare l'assenza di bug. (Edsger Wybe Dijkstra)
  • Computer: cretino ad alta velocità in dotazione, spesso, a cretini molto lenti. (Stefano Benni)
  • Sono convinto che l'informatica abbia molto in comune con la fisica. Entrambe si occupano di come funziona il mondo a un livello abbastanza fondamentale. La differenza, naturalmente, è che mentre in fisica devi capire come è fatto il mondo, in informatica sei tu a crearlo. Dentro i confini del computer, sei tu il creatore. Controlli - almeno potenzialmente - tutto ciò che vi succede. Se sei abbastanza bravo, puoi essere un dio. Su piccola scala.ra invenzione dell'uomo - con l'eccezione forse delle armi da fuoco e della tequila. (Mitch Ratcliffe)
  • Mai fidarsi di un computer che non è possibile gettare dalla finestra. (Steve Wozniak)
  • Ogni buon lavoro software nasce da un problema personale di uno sviluppatore. (Eric Steven Raymond)
  • I bravi programmatori sanno cosa scrivere, i migliori sanno cosa riscrivere (e riusare). (Eric Steven Raymond)
  • È meglio usare programmi di alta qualità senza costi di licenza, che costosi programmi proprietari di scarso valore. (Walter Bender, direttore del Media Lab del MIT)
  • Il computer non è una macchina intelligente che aiuta le persone stupide, anzi è una macchina stupida che funziona solo nelle mani delle persone intelligenti. (Umberto Eco)
Portali correlati

Altri progetti

Personaggi legati all'informatica
File:Alan Turing at age 16, colorized.jpg

Alan Mathison Turing (Londra, 23 giugno 1912 – Manchester, 7 giugno 1954) è stato un matematico, logico, crittografo e filosofo britannico, considerato uno dei padri dell'informatica e uno dei più grandi matematici del XX secolo.

Il suo lavoro ebbe una vasta influenza sulla nascita della disciplina dell'informatica, grazie alla sua formalizzazione dei concetti di algoritmo e calcolo mediante l'omonima macchina, che a sua volta costituì un significativo passo avanti nell'evoluzione verso il moderno computer. Per questo contributo è solitamente considerato il padre della scienza informatica e dell'intelligenza artificiale, da lui teorizzate già negli anni trenta del '900, ed anche uno dei più brillanti crittoanalisti che operarono nel Regno Unito durante la seconda guerra mondiale, per decifrare i messaggi scambiati da diplomatici e militari delle Potenze dell'Asse.

Turing lavorò infatti a Bletchley Park, il principale centro di crittoanalisi del Regno Unito, dove ideò una serie di tecniche per violare i cifrari tedeschi, incluso l'utilizzo di una macchina elettromeccanica (chiamata "Bomba") in grado di decodificare codici creati dalla macchina crittografica Enigma.


Categorie
Nuove voci
Pagine correlate