Overblog
Segui questo blog Administration + Create my blog
27 novembre 2013 3 27 /11 /novembre /2013 20:25

Le stampanti 3d stanno iniziando ad avere un certo successo; non sono ancora alla portata di tutti, ma sempre più utenti hanno iniziato ad utilizzarle per produrre gli oggetti più svariati. 

Purtroppo però fra i tanti possibili usi che si possono fare di questi dispositivi c'è anche la produzione di armi da fuoco perfettamente funzionanti.

In rete si trovano già diversi schemi pronti per l'uso e i primi esemplari sono stati già realizzati; tutto ciò potrebbe diventare un problema piuttosto sentito negli USA, dove già hanno serie difficoltà a gestire l'utilizzo delle armi da fuoco regolarmente acquistate e dove le autorità iniziano ad interessarsi al fenomeno delle armi fai-da-te. 

http://www.tomshw.it/files/2013/10/immagini_contenuti/50105/liberator-2_t.jpg

La prima città a muoversi in questa direzione è Philadelphia, dove a breve potrebbe entrare in vigore una legge che vieta l'utilizzo delle stampanti 3d per produrre armi da fuoco o parti di esse a chiunque non sia provvisto di un'apposita licenza. 

Una legge già esistente negli Stati Uniti e datata 1988 obbliga i produttori di armi a inserire in esse parti in metallo che possano essere riconosciute dai metal-detector; un'arma stampata in 3d potrebbe essere completamente in plastica (e quindi fuorilegge). 

Fin'ora il problema della produzione amatoriale di armi da fuoco completamente in materiale plastico non si era posto. Ma con le stampanti 3d potrebbe diventare fin troppo facile realizzare la propria pistola personale ed invisibile ai metal detector e tutto ciò andrebbe a fare a pugni con la legge appena descritta.

Nell'attesa di capire se il Governo Federale USA abbia voglia di risolvere la questione in Pennsylvania hanno iniziato a prendere provvedimenti. Saranno d'esempio per gli altri Stati? Difficile fare previsioni in merito. 


 

Condividi post
Repost0
6 novembre 2013 3 06 /11 /novembre /2013 19:26

Ottime notizie per i gamers più incalliti: uno studio tedesco, pubblicato sulla rivista Molecular Psychiatry afferma infatti che giocare ai videogames aumenta la materia grigia nelle zone del cervello dedicate al controllo dei movimenti, della memoria e del linguaggio. 

Un risultato decisamente diverso da quello che invece è il pensiero dei genitori medi: cioè che i videogiochi non fanno altro che rincitrullire i ragazzini.

Lo studio del Max Planck Institute ha invece mostrato che giocare per 30 minuti al giorno ai videogames non solo non fa male, ma addirittura ha un effetto benefico sull'ippocampo (la parte del cervello che sovraintende alla memoria e alla percezione sensoriale).

http://www.paid2write.org/images_articles/2/5/0/LNPP0431/newsupermariobroswallpaper800.jpg 

E' stato inoltre osservato che i risultati migliori sono stati ottenuti dai soggetti che hanno affermato di essersi divertiti durante il gioco (per la cronaca, i test sono stati effettuati su Mario 64 per Nintendo DS). Tutto merito della dopamina rilasciata dal cervello quando una persona è impegnata in attività piacevoli e che secondo i ricercatori è responsabile anche dell'aumento della materia grigia.

In realtà non c'era bisogno di essere ricercatori per notare come negli ultimi anni i bambini che utilizzano i videogiochi e la tecnologia in generale siano più svegli rispetto a quando noi 30enni avevamo la loro età.

Adesso lo conferma anche la scienza e oltre a qualche battutina vengono fuori anche risvolti interessanti legati alla possibilità di curare le malattie neuro-degenerative coi i videogames. 

Magari in un futuro non troppo lontano il medico ci prescriverà di giocare a pac-man per guarire da i nostri problemi mentali; mica male come terapia. 


Condividi post
Repost0
27 ottobre 2013 7 27 /10 /ottobre /2013 15:44

Google ci ha oramai abituati a piazzare i suoi datacenter nei posti più strani e così, dopo averne piazzati un paio al polo Nord starebbe pensando a una soluzione ancora più innovativa: costruire il primo datacenter marino mai realizzato. 

Il problema maggiore di un qualsiasi datacenter è il tenere basse le temperature. Per fare fronte a questa richiesta le soluzioni più classiche prevedono impianti di raffreddamento molto costosi sia per il consumo energetico che per la manutenzione.

Per le strutture di dimensioni imponenti la soluzione migliore trovata fino ad oggi consiste nel trasferirsi in un posto dove le temperature siano regolarmente vicine allo zero come appunto i Paesi vicini al circolo polare artico.

http://blogs-images.forbes.com/rogerkay/files/2012/10/datacenter2.jpg

Ma gli ingegneri di Google starebbero pensando anche a una nuova soluzione: costruire i datacenter del futuro su isole artificiali e utilizzare l'acqua del mare per tenere sotto controllo la temperatura. 

Secondo fonti non confermate le prime sperimentazioni sarebbero già partite grazie a una enorme struttura costruita a treasure island, isola artificiale nella Baia di San Francisco costruita negli anni 40 per essere utilizzata come aeroporto.

L'idea di Google dovrebbe essere a questo punto quella di utilizzare le risorse del mare sia per produrre energia grazie al moto delle onde sia quella di utilizzare l'acqua del mare negli impianti di raffreddamento. Probabilmente una scelta simile ha anche qualche ragione di sicurezza: i dati sarebbero anche fisicamente al sicuro se conservati in mezzo al mare. 

Che sia questo il futuro dei datacenter? Presto per dirlo; nel frattempo però gli esperimenti proseguono. 

 

Condividi post
Repost0
26 settembre 2013 4 26 /09 /settembre /2013 21:13

L'era del silicio sta per finire? Forse non ancora, ma i primi esperimenti sui materiali alternativi stanno iniziando a dare i loro frutti e l'idea di abbandonare il materiale che da decenni è alla base dell'elettronica non sembra essere poi così fantascientifica.

Il laboratorio di nanoelettronica dell'Università di Stanford ha infatti realizzato la prima CPU basata interamente sui nanotubi di carbonio.

Più o meno 200 transistors completamente realizzati con questa tecnologia hanno permesso ai ricercatori di Stanford di creare una CPU che a livello prestazionale non è per niente competitiva, essendo equivalante a un processore in silicio degli anni 70, ma che è una macchina di Turing completa. 

http://us.123rf.com/400wm/400/400/alexmit/alexmit1102/alexmit110200034/9021697-cpu--processore-centrale-unita-concetto-vista-superiore-isolata-on-white.jpg

L'obiettivo della ricerca non era certo quello di creare un processore super-potente, ma quello di dimostrare che le alternative al silicio ci sono e sono anche piuttosto interessanti.

I nanotubi di carbonio hanno infatti il pregio di essere molto più resistenti al calore rispetto al silico: questo vuol dire che un processore di questo tipo potrà supportare frequenze di lavoro molto più alte di quelle attuali. 

Non a breve però: abbiamo già detto che allo stato attuale si tratta solo di un esperimento riuscito per mostrare le possibilità di questa nuova tecnologia; le prospettive però potrebbero cambiare se oltre ai laboratori universitari si interessassero al progetto anche le industrie private. 

Avevamo già detto (guardare qua) che la legge di Moore ha ancora pochi anni di vita e che i produttori di CPU stanno iniziando a lavorare alle alternative al silicio; l'esperimento dell'Università di Stanford potrebbe essere un buon punto di partenza. 

Condividi post
Repost0
21 settembre 2013 6 21 /09 /settembre /2013 13:57

http://www.westernjournalism.com/wp-content/uploads/2013/07/NSA-SC.jpegAncora brutte notizie dal Datagate: stavolta è il Guardian a metterci al corrente dell'ennesimo risvolto fanta-politico dello scandalo sulla privacy che ha già fatto impallidire i migliori registi di Hollywod.

Sembrerebbe infatti che la National Security Agency e il governo di Israele abbiano stretto un accordo che prevede il passaggio dei dati raccolti negli USA ai servizi segreti israeliani così come sono, senza la minima azione di filtraggio che elimini i dati che non dovrebbero essere interessanti per la sicurezza di Israele. 

In pratica gran parte delle conversazioni via mail dei cittadini USA sono disponibili anche al di fuori della NSA, senza che sia stato posto alcun vincolo al loro utilizzo.

Un bel problema (anzi, l'ennesimo) per l'agenzia della sicurezza nazionale americana, che se da un lato si conferma attenta alla difesa dell'incolumità dei cittadini americani dall'altro si dimostra disinteressata a proteggerne la privacy, con i loro dati personali diventati merce di scambio verso i governi alleati.

In tutto questi problemi qualcuno inizia a prendere le proprie contromisure: si tratta di RSA Security, azienda americana che si occupa della sicurezza dei dati che ha consigliato agli sviluppatori che utilizzano i suoi toolkit di non utilizzare un particolare algoritmo di cifratura, considerato oramai insicuro in seguito alle rivelazioni sul datagate che lo indicavano come uno degli algoritmi su cui la NSA avrebbe fatto inserire di proposito delle falle di sicurezza. 


Condividi post
Repost0
15 settembre 2013 7 15 /09 /settembre /2013 12:26

Il 93% degli incidenti automobilistici è causato da errori umani: da questa premessa parte l'idea di Google di realizzare automobili che si guidino da sole. Niente colpi di sonno, distrazioni al cellulare, semafori non visti e/o altri avvenimenti che creano incidenti più o meno gravi: un computer guiderà la nostra auto come una sorta di autista automatico. 

In realtà non c'è solo Google: sono molte le aziende e le università interessate a progetti simili: in Europa ci sono Mercedes e Volvo, in Asia Nissan, ma anche alcuni progetti indipendenti fra cui spicca quello dell'Università di Parma.

Ma in cosa consiste un progetto di questo tipo? Innazitutto ci vuole un'automobile su cui installare una serie di sensori. Questi possono essere di vario tipo: dai più ingombranti e costosi dotati di sistemi di guida laser (come i missili in pratica) a quelli più economici e discreti basati su micro-camere installate nella carrozzeria. Ci vuole poi un software che interagisca con i sensori e l'automobile. 

Servono poi ovviamente una connessione a internet e al sistema gps, ma questo attualmente sembra essere l'ultimo dei problemi e quasi tutte le auto possono esserne facilmente dotate.

http://ziogeek.com/wp-content/uploads/2010/10/googleselfdrivinginfo.jpeg

La vera difficoltà sta nelle strade: per avere un sistema di guida automatizzata davvero efficiente infatti c'è bisogno non solo di auto, ma anche di strade intelligenti; la smart-car perfetta dovrà infatti essere in grado di leggere i dati provienienti in tempo reale dalla strada. 

Bisognerà cioè che la strada comunichi alla macchina le sue condizioni: stato dell'asfalto, traffico, presenza di pedoni ecc. Usando tutte queste informazioni il software installato nell'automobile (parliamo quasi ovunque di versioni Linux appositamente create e modificate) riuscirà a modulare la velocità, sterzare, fermarsi ai semafori e/o ai segnali stradali che incontrerà.

Questo lo scenario ideale: in realtà gli esperimenti sono molteplici: ad esempio quello di Volvo, denominato SARTRE (Safe Road Trains for The Environment) prevede un treno di automobili senza pilota che seguono un primo veicolo con pilota e collegato via wireless con le altre. 

Più complesso quello che come abbiamo già citato, attualmente sviluppato dall'Università di Parma e che è a detta di molti il più avanzato in circolazione e che ha già completato qualche test su strade urbane.

 


 

Condividi post
Repost0
29 agosto 2013 4 29 /08 /agosto /2013 16:27

Tutti conosciamo la legge di Moore, che definisce l'andamento delle prestazioni dei processori dal giorno in cui è nato il primo microprocessore.

Una legge in discussione da tempo per via delle migliorie che negli anni ha avuto la tecnologia (non tiene conto dei processori multicore, del calcolo parallelo ecc.), ma che di base è sempre stata ritenuta valida; stavolta a metterla in dubbio è Robert Colwell, colui che era a capo della progettazione di tutti i processori Pentium dal primo al IV e che ha dichiarato senza giri di parole che al massimo entro i prossimi 10 anni la Legge di Moore perderà tutta la sua validità.

Colpa non tanto della fisica, ma di considerazioni di tipo economico: secondo Colwell infatti una crescita di tipo esponenziale come quella indicata da Moore non può procedere all'infinito, specie se si parla dei microprocessori.

http://us.123rf.com/400wm/400/400/berean/berean0806/berean080600112/3190731-guardando-il-fondo-di-un-microprocessore-di-silicio-isolati-ona-uno-sfondo-bianco-mostrando-spille-i.jpg

I limiti del silicio come mezzo fisico sono ancora lontani dall'essere raggiunti ma già abbastanza elevati da far lievitare i costi della ricerca (si parla di 8 miliardi di dollari spesi da Intel per la prossima generazione di processori).

A questo prezzo secondo il papà del Pentium non sarà più conveniente investire sul silicio e i produttori saranno spinti verso altri settori della ricerca; non solo: un discorso esclusivamente tecnico potrebbe indurre i progettisti a fermarsi quando i processori avranno raggiunto la tecnologia a 7 nanometri.

Questo numero è infatti ritenuto il limite fisico oltre il quale il silicio non può più essere utilizzato. Spieghiamoci meglio: la distanza di 7nm (o 10 per i pessimisti) è quella minima a cui si può arrivare a posizionare i vari circuiti durante il processo di produzione di circuiti integrati, arrivare oltre vorrebbe dire realizzare circuiti che si surriscalderebbero troppo, diventando instabili. 

Una volta raggiunta questa soglia (attualmente siamo a 14 nm) diventerebbe di fatto impossibile migliorare la tecnologia, e la Legge di Moore non avrebbe più senso. 

E' per questo motivo che i ricercatori stanno iniziando seriamente a interessarsi nel trovare semiconduttori alternativi al silicio da usare nella costruzione di circuiti integrati. Al momento però si tratta solo di esperimenti e siamo molto lontati da una produzione industriale; il silicio sarà ancora indispensabile, anche senza la Legge di Moore.  


Condividi post
Repost0
25 agosto 2013 7 25 /08 /agosto /2013 17:59

Che i social network fossero diventati uno strumento fondamentale per la vita moderna sembra oramai chiaro; sono sempre più le aziende che si affidano a facebook o ad altre piattaforme per scandagliare la vita dei candidati dipendenti. 

Avere un profilo on-line di tutto rispetto può rivelarsi molto utile nella ricerca di lavoro, specie nei Paesi più tecnologici come gli USA; non a caso proprio dagli Stati Uniti arriva la notizia più curioso riguardo l'uso dei social network nella ricerca di un lavoro. 

http://pcguia.sapo.pt/wp-content/uploads/2013/04/nasa_logo.jpg

Protagonista della vicenda niente meno che la NASA, l'ente spaziale americano. Sembra infatti che fra i requisiti necessari per diventare astronauta ci sia la capacità di essere sintetici; vi chiederete cosa c'entra con Twitter: molto semplice, nella domanda d'iscrizione un punto specifico chiede di mostrare le proprie doti di comunicazione esplicando i motivi per cui si dovrebbe essere scelti in appena 140 caratteri.

Esattamente la dimensione massima di un tweet. Questo ovviamente non vuol dire che una volta saliti su uno space shuttle si debba diventare una tweet-star e postare a raffica dallo spazio: semplicemente bisogna essere in grado di riassumere in poche parole un concetto.

Avete presente la frase: "Huston we have had a problem" di Apollo 13? Negli anno 70 gli astronauti avevano già capito l'importanza di essere sintetici. 

Condividi post
Repost0
16 luglio 2013 2 16 /07 /luglio /2013 20:42

Il pallone è tuo amico, parola di Oliver Hutton. Adidas sembra aver preso sul serio questa frase ed è pronta a lanciare sul mercato il pallone intelligente: non un normale pallone da calcio, ma un oggetto ultra-tecnologico in grado di comunicare in tempo reale con gli allenatori in panchina.

Tutto merito di una serie di sensori di vario tipo che coprono completamente la superficie della palla e che collezioneranno informazioni di ogni genere: velocità, traiettoria, forza con cui è stato calciato e tutto ciò che può interessare un allenatore o un giocatore durante allenamenti e partite. 

Le traiettorie di Pirlo, le bombe di Ibrahimovic, i dribbling di Messi; tutto sarà registrato dai sensori inseriti nel pallone e saranno inviati via bluetooth a smartphones e/o tablet.

http://cdn0.mos.techradar.futurecdn.net///art/Fitness_tech/Adidas/MiCoach%20Ball/img_theTechnology-580-75.jpg

Chi ha lavorato al progetto lo ha fatto pensando ai vantaggi che potrebbero avere tecnici e calciatori durante gli allenamenti: tutte queste informazioni potrebbero fare la fortuna di una squadra se gestite nel modo giusto, ma a molti la prima cosa che è venuta in mente riguarda gli aspetti regolamentari.

Si parla sempre più spesso di gol fantasma e nonostante i vari esperimenti in merito nessuno all'interno della Fifa ha preso una decisione in merito alla tecnologia da utilizzare per risolvere il problema.

Un pallone simile potrebbe essere la soluzione perfetta: fra i tanti sensori uno che segnali il superamento della linea di porta troverebbe tranquillamente posto e metterebbe una volta per tutte fine alle polemiche sui gol-non-gol. 

Ad ogni modo la smart ball di Adidas sarà disponibile solo nel 2014, e per ora solo come strumento da allenamento. Probabilmente non lo vedremo mai in una gara ufficiale, anche se tutto sommato non ne sentiremo la mancanza; togliere ai tifosi anche il diritto di polemizzare sulle decisioni degli arbitri sarebbe troppo.   

Condividi post
Repost0
2 luglio 2013 2 02 /07 /luglio /2013 20:41

C'è chi sceglie l'eolico come Google e chi invece per alimentare i propri server punterà sull'energia solare come nel caso di Apple.

Il data center di Reno (città del Nevada) sarà infatti dotato di un impianto fotovoltaico che fornirà 20 MegaWatt di energia agli apparati di rete e ai server necessari a far funzionare l'infrastruttura dell'azienda che con iCloud e iTunes è impegnata notevolmente nella gestione dei dati deli utenti. 

Non è la prima volta che Apple utilizza questa tecnologia, utilizzata già per altri due data center aziendali; la novità è però data dalla particolare configurazione che sarà adottata per questo nuovo impianto.

http://media.melablog.it/9/938/impianto-solare-Spagna.jpg

Si utilizzerà infatti la tecnologia SunPower, che grazie agli specchi e a un movimento in grado di seguire il solo durante tutta la giornata, permetterà di accumulare una quantità di energia fino a 7 volte più grande rispetto ai pannelli solari tradizionali.

Il problema dell'approvigionamento di energia è da sempre la nota dolente delle aziende come Apple e Google, che dovendo mantenere miliardi di dati hanno bisogno di enormi quantità di spazio di memorizzazione (sotto forma di server) e di tutta l'infrastruttura necessaria allo scambio di dati. 

Tutto questo si traduce in un costo economico enorme che le aziende cercano in tutti i modi di ridurre. Il ricorso alle energie pulite sembra essere indispensabile proprio sotto questo punto di vista: le energie rinnovabili possono rappresentare una grossa (ed economica) alternativa alle fonti di energia tradizionali.  

Oltretutto Apple è da sempre impegnata nella tutela dell'ambiente, come dimostra la totale assenza di metalli inquinanti nei propri dispostivi e l'utilizzo di materiali ricilati nella loro costruzione.

Creare un data center completamente a energia solare è solo l'ultimo passo, sperando che anche altre aziende seguano l'esempio e trovino sempre più soluzioni ecologiche per le loro richieste energetiche. 

Condividi post
Repost0