Please enable JavaScript.
Coggle requires JavaScript to display documents.
introduzione all'informatica - Coggle Diagram
introduzione all'informatica
informatica come disciplina scientifica
il termine
informatica
si riferisce a 3 aspetti tra loro distinti ma collegati
OPERATIVO, insieme di applicazioni e manufatti (PC)
è la percezione della persona comune (saper usare le applicazioni)
TECNOLOGICO, una tecnologia che realizza quelle applicazioni
è la percezione del tecnico (saper realizzare le applicazioni)
CULTURALE, una disciplina scientifica che rende possibile quella tecnologia
dovrebbe essere patrimonio di ogni persona con educazione superiore (COME modello interpretativo della realtà)
manifesto dell'informatica (il GRIN/associazione italiana dei docenti di informatica)
scienza che si occupa dei
temi
studio dei fondamenti teorici della scienza ed informazione
definizione algoritmi per elaborazione automatica info (consente di accrescere facoltà cognitive dell'individuo)
realizzazione di questi algoritmi
uso del
calcolatore
L'informatica è
multidisciplinare (ognuna prevede opportuna forma di organizzazione e trattamento dei dati)
offre strumenti per modellare i problemi e risolverli
tecnologie dell'informazione (offrono vantaggi sul lungo termine, oltre che semplificare svolgimento di compiti realizzabili senza calcolatore)
alcune specializzazioni
della disciplina informatica, (può essere coniugata ad altre discipline e dare vita a robotica; chimica computazionale; musicologia computazionale; bioinformatica)
teorica
, teoria dell'informazione; teoria della computazione; teoria dei linguaggi di programmazione
applicata
, architettura dei calcolatori; information tecnology; sicurezza informatica e crittografia; PROGRAMMAZIONE (sviluppo software; sviluppo web; sistemi digitali)
Nascita del
calcolatore
sistema di elaborazione dati
(nato in forma meccanica; sviluppatosi in quella analogica e giunto poi alla forma digitale)
I calcolatori meccanici
antico è l'abaco (in uso 4000 anni fa in Cina)
tante altre scoperte mai realizzate come pascalina di Pascal
1702, Gottfried Willhem Leibniz sviluppò
LA LOGICA
come disciplina
matematica
e
formale
(scritti sul sistema numerico binario, dove 1 e 0 rappresentavano vero o falso) importante=>inizi del
19 esimo secolo
1804 Joseph Marie Jacquard nuova tecnologia per telai/controllare movimento aghi=> AUTOMATIZZA procedura tessitura
Babbage=> macchina di calcolo in grado di compiere operazioni aritmetiche (mai realizzata), ripresa da Ada Lovace che la riprogrammò per altri fini (differenza tra calcolatore e calcolatrice
nel 1854=> idee di Leibniz riprese da George Boole (l'algebra booleana, creando un sistema dove attraverso formule algebriche si trattano relazioni logiche), addizione/moltiplicazione e sottrazione sostituite da operazioni logiche (
disgiunzione e negazione
), utilizzando solo numeri binari (ossia costituiti da sole cifre 0 e 1)
fine 19 esimo secolo Herman Holerith (funzionario statunitense ufficio censimento)=>
macchina tabulatrice
, per automatizzare operazioni censimento
tra gli antenati degli anni 30 del calcolatore=>
Memex
(progettata da Vannevar Bush), sistema archiviazione dati utilizzato a scopi personali (scrivania, tastiera, set di pulsanti)=> collegamento tra foto e documenti (primo apprioccio dell'
IPER STESO
)
Kurt Godel => teoremi di incompletezza, da base per Turing che formalizzò un modello di calcolatore universale
la macchina di Turing
(mai realizzata ma dimostra come ogni funzione calcolabile si possa eseguire attraverso un algoritmo),
essa sottolinea la separazione tra macchina fisica e dati algoritmi astratti dall'altro
L'evoluzione del calcolatore
Generazione 1 (VALVOLE)
primo calcolatore digitale totalmente elettronico ma mai brevettato
ATANASOFF BERRY COMPUTER
(ABC)
1945 VON NEUMANN, definisce
l'architettura per calcolatori digitali
(tutt'ora in uso nella > parte dei dispositivi moderni) dove
dati
e
programmi
condividono
stessa memoria
1946 ENIAC (primo calcolatore elettronico basato interamente su tecnologia a valvole), pesava 300 tonnellate
1948 Shannon => termine
BIT (binary digit)
per designare unità elementare di informazione (vero o falso; 0 e 1)
Generazione 2 (I TRANSISTOR)
1954 l'IBM => primo calcolatore commerciale con memoria su nastro magnetico (in quegli anni => evoluzione linguaggi di programmazione)
1959 => lanciato l'IBM 705 (usava il linguaggio di programmazione FORTRAN,
più vicino a quello umano
), ma contro => costi elevati e dimensione macchine
Generazione 3 (CIRCUITI INTEGRATI)
problema dimensioni finisce nel 1964=>
PROGRAMMA 101,
introdotto dall'azienda italiana Olivetti (primo personal computer della storia, stava sulla scrivania ma niente schermo=>info trasmesse tramite nastro)
parallelamente, introdotto un mini computer con schermo rudimentale dalla Digital Equipment Corporation (anni 70)
Generazione 4 (MICROPROCESSORE)
primo circuito integrato contenente l'intera unità di calcolo del calcolatore => commercializzato il primo pc della storia APPLE II (con sistema operativo chiamato Aplle Dos)
nel 1981 =>
IBM brevettò il suo primo Pc
destinato a imporsi come standard di riferimento con sistema operativo Ms-Dos prodotto da
Microsoft
Generazione 5 (CALCOLO PARALLELO E RETE)
tra gli anni 80 e 90 si sono affermate tecnologie come l'e interfacce grafiche (per compiere più operazioni in parallelo) e avvento di
INTERNET
incremento
potenza di calcolo
memoria
Problemi, algoritmi e programmi
algoritmo
, metodo per risolvere in modo efficiente, univoco ed universale, formalmente preciso e finito
un problema
(inclusi una ricetta di cucina o libretto elettrodomestico => in quanto prevedono una serie di istruzioni precise per realizzazione risultato) - deriva dal matematico Muhammed ibn Musa Alkhuwarizmi
Le proprietà sono:
finitezza
(delle operazioni da svolgere)
non ambiguità linguaggio
in cui sono scritte le operazioni da svolgere (=> istruzioni scritte in un linguaggio codificato e formale)
universalità
della procedura algoritmica (=>deve valere per tutti i problemi dello stesso genere)
completezza operazioni (=> ognuna deve essere dichiarata esplicitamente)
NON esiste un unico algoritmo per la definizione di tutti i problemi;
aspetti rilevanti (quantità spazio occupato; velocità con cui si reperisce un dato; facilità con cui si possono aggiungere, modificare, eliminare dati)
Infine, un
programma
può essere definito come un algoritmo, scritto in un linguaggio comprensibile al calcolatore (dati organizzati e vincolato alle risorse)