Informatica

Informatica


Creare dei microprocessori in grado di replicare i sistemi di apprendimento biologico, così da rendere l’Intelligenza Artificiale più flessibile, efficiente e sostenibile anche dal punto di vista ambientale. È questa la sfida lanciata da un gruppo internazionale di ricercatori - coordinato dal Neuromorphic AI Lab (NUAI Lab) della UTSA (University of Texas at San Antonio) - di cui fa parte anche Vincenzo Lomonaco, tra i massimi esperti italiani di Continual Learning, ricercatore presso il Dipartimento di Informatica dell’Università di Pisa e tra gli autori dell’articolo “Design principles for lifelong learning AI accelerators”, da poco uscito sulla prestigiosa rivista scientifica Nature Electronics.

“La fallibilità dell’Intelligenza Artificiale è ancora troppo alta e questo perché l’AI, così come la conosciamo oggi, si basa su sistemi di apprendimento automatico troppo rigidi, che la rendono incapace di affrontare condizioni nuove, non precedentemente incontrate durante il processo di addestramento – spiega Vincenzo Lomonaco – Di fatto, le facciamo apprendere una grande quantità di informazioni tutte insieme, ma ogni volta che emerge una novità su un determinato tema dobbiamo aggiornare il sistema da zero. Tutto ciò, oltre ad essere poco efficiente, ha anche dei costi altissimi, sia in termini economici che ambientali, visto l’elevato consumo di energia e le conseguenti emissioni di CO2 di questi processi”.

Le sedi della Soprintendenza per l’Area Archeologica di Roma connesse con il sistema mondiale delle reti della ricerca grazie all’accordo con Garr

Inaugurazione ufficiale il 13 ottobre con un evento in diretta grazie alla fibra ottica GARR tra Terme di Diocleziano, Colosseo e Crypta Balbi

La collaborazione tra Garr, la rete italiana dell’Istruzione e della Ricerca, e la Soprintendenza per l’Area Archeologica di Roma, giunge a un primo importante risultato: i maggiori siti archeologici e musei della capitale sono stati dotati di banda di connessione internet a banda ultralarga con collegamenti bidirezionali in fibra ottica (oggi 100 Mbps ma con potenzialità oltre 1 Gbps)

Un test intercontinentale dimostra l’efficacia di un nuovo modello di gestione delle reti basato su SDN e software aperto.
Protagonisti in Italia GARR, Create-NET e CNIT-Università di Roma Tor Vergata e OnLab negli Stati Uniti, che hanno utilizzato il servizio di testbed offerto della rete della ricerca europea GÉANT.

Open e sostenibile, sarà questo il futuro della rete Internet? Un risultato importante a livello mondiale che contribuisce a rispondere alla domanda è stato il test condotto tra gli Stati Uniti e l’Italia per dimostrare che è possibile, anche su lunghe distanze, innovare nel funzionamento di Internet utilizzando un software open source per la gestione della rete.

Dal 3 al 5 ottobre Roma è stata la capitale mondiale dell’innovazione: l’Auditorium Parco della Musica di Renzo Piano ha ospitato l’edizione 2014 della Maker Faire, la più grande fiera dedicata al settore della manifattura digitale e ad alta tecnologia, una mostra dedicata alla creatività e all’inventiva. In occasione dell’evento  gli innovatori del terzo millennio hanno mostrato i progetti a cui stanno lavorando e condiviso il sapere tecnologico e artigiano.

 

Rivista Informatica e Diritto (ESI - Napoli)
Numero Speciale - n. 1, Giugno 2011

Con l’espressione open data si indica, in senso tecnico il formato ‘aperto’ con cui i dati digitali possono essere distribuiti nel web per rendere i dati accessibili, riusabili, ed integrabili. In senso lato, il fenomeno degli Open Data costituisce una delle novità più rilevanti nella realtà di Internet, in quanto, consentendo di trattare e rielaborare l’immensa conoscenza non strutturata della rete, aprono un panorama illimitato di applicazioni. Sui dati pubblicati in formato aperto è possibile costruire servizi, creare nuovi serbatoi di conoscenza attraverso la loro connessione collaborativa (Linked Data), rafforzare il percorso verso l’accesso libero alla totalità della conoscenza digitale.

 

Nel nuovo numero percorsi di particolare interesse per il giurista informatico e il tema dell'open access

La rivista scientifica “Informatica e diritto”, nata nel 1975 per iniziativa dell'Istituto di Teoria e Tecniche dell'Informazione Giuridica del CNR, pubblica saggi in tema di informatica giuridica e diritto dell'informatica. Essa è stata edita inizialmente (fino al 1991) dalla casa editrice Le Monnier, mentre dal 1992 è diventata un periodico semestrale, pubblicato dalla casa editrice ESI (Edizioni Scientifiche Italiane) di Napoli. Dato il carattere scientifico della pubblicazione e l'ampia partecipazione di collaboratori internazionali, gli articoli sono redatti oltre che in lingua italiana, anche nelle principali lingue europee come francese, inglese, portoghese, spagnolo e tedesco. Il periodico è dedicato allo studio e all'analisi critica dei problemi applicativi delle nuove tecnologie dell'informazione nel campo del diritto, nonché dei problemi giuridici scaturenti dallo sviluppo dell'informatica e della telematica nella contemporanea società dell'informazione. Relativamente all'informatica giuridica, la Rivista accoglie studi in tema di documentazione giuridica automatica, sistemi informativi, automazione della Pubblica Amministrazione e degli studi legali, tecniche di intelligenza artificiale e di rappresentazione della conoscenza applicata al diritto, sistemi esperti in campo legale, offrendo un panorama sufficientemente indicativo delle tendenze di sviluppo dell'informatica giuridica in Italia e all'estero. Per quanto riguarda il diritto dell'informatica, oltre ai problemi quali quello relativo alla riservatezza delle informazioni personali contenute nelle basi di dati pubbliche e private, vengono trattate questioni più recenti in merito alla protezione giuridica del software, allo sviluppo della contrattualistica avente per oggetto beni e servizi telematici, nonché alla disciplina per regolare l'introduzione e l'uso dell'informatica nel settore pubblico.

La comunità dei fisici delle particelle ha annunciato il lancio della prima fase di Lhc computing Grid (Lcg). Lcg è progettato per elaborare le quantità di dati senza precedenti che saranno prodotti dagli esperimenti in corso al Cern presso il Large Hadron Collider (Lhc) a partire dal 2007. "Lcg costituirà un test di vitale importanza per le nuove tecnologie informatiche Grid. Queste rivoluzioneranno il modo in cui utilizziamo le risorse dei computer in aree che vanno dalla ricerca fondamentale alla diagnosi medica", dice Les Robertson, responsabile del progetto di Lcg al Cern.

I requisiti computazionali degli esperimenti di Lhc sono enormi: circa 12-14 PetaBytes di dati saranno prodotti ogni anno (l'equivalente di oltre 20 milioni di Cd). Analizzare questa mole di dati richiederà l'equivalente di 70 mila computer del tipo più veloce tra quelli oggi prodotti. Lcg verrà incontro a queste necessità attraverso il dispiegamento di un servizio di calcolo Grid a livello mondiale, integrando le risorse dei centri di calcolo scientifici disseminati in Europa, America e Asia, in un'organizzazione globale di calcolo virtuale.

Killzone 2

21 Lug 2009 Scritto da

Il sequel dello spettacolare e meno conosciuto KILLZONE uscito nel 2004, ha completamente rivoluzionato i parametri della PS3, sfruttando il massimo delle potenzialità della console.
La grafica del gioco è veramente entusiasmante e sembra proiettarti direttamente nel campo di battaglia. Inoltre c’è da segnalare un netto miglioramento delle attività di gioco rispetto al precedente capitolo con l’aggiunta di vari nuovi elementi che aggiungono maggiore imprevedibilità, come il vento che ora incide sulla traiettoria delle granate e dei proiettili. In questa versione esiste anche la possibilità di giocare online che permette di affrontare contemporaneamente diversi giocatori.

Molti pensano che la tecnologia sia il motore e la guida dello sviluppo. Ma è proprio così? Quante volte è il caso a giocare un ruolo determinante nelle grandi innovazioni? Tanto che gli stessi protagonisti non sempre sono in grado di prevedere  le ricadute delle loro scoperte, come nel caso del motore di ricerca Google o del social networking. “Ed è proprio in queste situazioni che diventa prioritario raccontare storie vere, piuttosto che cercare di teorizzare”. E’ quanto sostiene Francesco Antinucci nel suo ultimo libro L’algoritmo al potere. Vita quotidiana  ai tempi di Google (Laterza editori). Antinucci, direttore di ricerca all’Istituto di scienze e tecnologie della cognizione (Istc) del Consiglio nazionale delle ricerche ha al suo attivo numerose pubblicazioni che affrontano tematiche che riguardano l’apprendimento e la comunicazione in relazione alle tecnologie digitali. In questo volume intende illustrare, attraverso una piacevole trattazione,  alcuni casi esemplificativi di innovazioni,  partendo proprio dal contesto in cui sono nate, fino alle applicazioni inaspettate e sorprendenti che ne sono scaturite e che hanno cambiato il nostro modo di vivere.

Il Comitato scientifico dell'Istituto di Teoria e Tecniche dell'Informazione Giuridica del Cnr, coordinato da Giancarlo Taddei Elmi. In collaborazione con il Dipartimento Identità Culturale del Cnr organizza il Seminario - Tavola rotonda: Robotica tra Etica e Diritto, mercoledi 24 novembre 2010, alle ore 9.00, presso la sede dell'ITTIG-CNR, in via dei Barucci n° 20.

 

Scienzaonline con sottotitolo Sciencenew  - Periodico
Autorizzazioni del Tribunale di Roma – diffusioni:
telematica quotidiana 229/2006 del 08/06/2006
mensile per mezzo stampa 293/2003 del 07/07/2003
Scienceonline, Autorizzazione del Tribunale di Roma 228/2006 del 29/05/06
Pubblicato a Roma – Via A. De Viti de Marco, 50 – Direttore Responsabile Guido Donati

Photo Gallery