Overblog
Segui questo blog Administration + Create my blog
6 novembre 2011 7 06 /11 /novembre /2011 21:16

Continua la rassegna delle tecnologie del passato: questa volta parliamo del Super Nintendo. La console con cui quasi tutti i trentenni hanno giocato per la prima volta a Super Mario, Street FighterFinal Fantasy e tutti quei giochi che col passare degli anni hanno rappresentato delle serie di culto che ancora adesso hanno milioni di fans e vengono pubblicate per le console di ultime generazione. 

Nato nel 1990 come evoluzione naturale del Nintendo Nes, il Super Nintendo, (ma potete chiamarlo anche Super Nes e/o Super Famicon) in breve tempo divenne la console più diffusa sul mercato, ingaggiando una battaglia di vendite con il rivale dell'epoca, il Sega Mega Drive che poteva vantare un catalogo giochi di tutto rispetto, capeggiato da Sonic the Hedgehog. In particolare la console a 16 bit di Nintendo ottenne il predominio assoluto in Giappone, dove fino alla uscita di scena nel 1999 rimase la console più venduta (e non è un caso che la maggior parte dei giochi siano stati pubblicati solo nel paese del Sol Levante, lasciando a team di appassionati europei la loro traduzione per poterli giocare con gli emulatori anche anni dopo la loro uscita).

In Europa ed America invece la situazione era più equilibrata, anche perchè i rivali di Sega potevano contare su supporti ottici per i giochi, mentre il Super Famicon, uscito tra l'altro con 2 anni di ritardo rispetto al Giappone, restava ancorato all'uso delle cartucce che per un certo verso venivano viste come un supporto antiquato, anche se la qualità grafica dei giochi non aveva niente da invidiare ai giochi pubblicati su CD.

La cosa che distingueva il Super Nintendo dalla concorrenza era la possibilità di potenziare la console tramite circuiti integrati direttamente nelle cartucce dei giochi: questo permetteva di pubblicare giochi con animazioni e grafica migliore senza preoccuparsi delle limitazioni dell'hardware originario.

http://upload.wikimedia.org/wikipedia/commons/thumb/f/fd/SNES-PAL-Console-Set.png/685px-SNES-PAL-Console-Set.png

Quest'ultimo prevedeva : 

 

  • Processore 65c816 a16-bit a 2,68-3,58 MHz
  • 1 Mbit (128 Kbyte) di memoria RAM
  • Processore dedicato per la gestione della grafica a 16-bit, 0,5 Mbit (64 Kb) Video RAM
  • Risoluzione massima 512 x 448, palette di 32.768 colori, massimo 256 contemporanei su schermo
  • Massimo 128 sprites su schermo, dimensione massima 64 x 64
  • Dimensione minima/massima delle cartucce: 2 Mbit - 48 Mbit
  • Chip audio: 8-bit Sony SPC700 a 8-bit, 8 canali stereo e 64 Kb di memoria dedicata. È in grado di produrre campionamenti audio ADPCM al massimo di 4-bit.
  • Adattatore (AC ADAPTER PAL): Input AC 220/230 V, 50 Hz, 17 watts; Output AC 9/9,4 V, 1.3 A.

 

Le cartucce venivano inserite dall'alto e potevano essere estratte sia manualmente che tramite il tasto Eject centrale, ai suoi fianchi i tasti di accensione/spegnimento e Reset permettevano di gestire la console per le operazioni più importanti. La cosa che però contraddistingue lo SNES dalla massa sono i controller dalla forma che ha fatto scuola negli anni successivi, i 4 tasti azione permettevano di eseguire un numero notevole di combo ed azioni speciali, ed erano liberamente configurabili nei giochi in modo da poterli usare a nostro piacimento. 

Come già accennato in precedenza nelle cartucce dei giochi era possibile inserire tutta una serie di circuiti di espansione che permettevano di migliorare le prestazioni della console, come ad esempio chip dedicati alla grafica, all'espansione della memoria o all'overclock del processore (è il caso dei chip Super FX e Super FX 2 che portavano la velocità del processore fino a 10 MHz e oltre). Tramite questo accorgimento la console poteva far girare anche giochi sviluppati con una tecnologia più recente senza risentirne in termini di velocità e prestazioni e senza il bisogno di ulteriori moduli di espansione da comprare a parte come accadeva per la concorrenza.http://www.extraportale.eu/Italia/images/Giochi/Super_Mario_World.jpg

La console viene tolta dal mercato nel 1999, sebbene nel 1997 fosse entrata in commercio la sua versione a 64 bit, il Nintendo 64 e nello stesso periodo fosse stata commercializzata anche una versione aggiornata del Super Famicon che portava in dote componentistica più moderna. 

Anche se non più in commercio i nostalgici come me (che ho amato alla follia Tales of Phantasia) possono provare le emozioni di un tempo utilizzando uno dei tanti emulatori disponibili in rete, con cui si potrà di nuovo far risuonare la mitica musichetta di Super Mario World e liberare la principessa dalle tartarughe cattive. 

Condividi post
Repost0
3 novembre 2011 4 03 /11 /novembre /2011 11:15

La virtualizzazione dal punto di vista informatico è il concetto di eseguire più sistemi operativi sulla stessa macchina; in generale abbiamo una macchina fisica che contiene il sistema operativo host, e una o più virtual machines che sono dei sistemi guest,cioè dei finti computer su cui installare altri sistemi operativi. 

La virtualizzazione è molto usata in ambienti di ricerca e/o industriali: ad esempio per simulare macchine con hardware ancora in fase di progettazione o che non si possiede fisicamente (e in questo caso si parla anche di emulazione), oppure per tutti quesi servizi in cui servono più di un server fisico. In questi casi piuttosto che avere più macchine fisiche su cui ognuna è implementato un servizio, si preferisce avere una sola macchina fisica abbastanza potente da poter far girare su singole virtual machines tutti i servizi richiesti.

http://www.toppolino.it/xorse/wp-content/uploads/2009/11/virtualbox-screen0.png

Ma aldilà di questi scopi professionali anche chi utilizza il PC per scopi personali può trarre vantaggio dalla virtualizzazione; ad esempio chi vuole provare un sistema operativo diverso dal solito Windows o chi ha bisogno di utilizzare determinati software presenti solo per una certa piattaforma può crearsi la propria macchina virtuale con cui lavorare, senza bisogno di perdersi fra partizionamenti, boot loader e formattazioni varie. 

Un software molto semplice da utilizzare che permette di creare macchine virtuali è VirtualBox attualmente distribuito sia in forma commerciale che in forma gratuita da Sun MicroSystems. Disponibile per Windows, Linux, Mac Os permette di creare sistemi guest con macchine Windows, Linux, Os/2,FreeBSD e OpenBSD.

http://www.valent-blog.eu/illustrazioni/schermata7.png

Può emulare vari dispositivi hardware: gli hard disks (in formato VDI, purtroppo non compatibile con altri software di virtualizzazione), le schede video (di default una scheda VESA con 12MB di memoria), e le schede audio (AC 97 o soundblaster). Inoltre può emulare varie schede ethernet sia AMD che INTEL, e i controller USB della macchina host.

Creare una macchina virtuale con VirtualBox è un procedimento abbastanza semplice: una volta scaricato ed installato (durante la procedura vedrete comparire vari notifiche di nuovo hardware, non preoccupatevi, è normale) tramite l'interfaccia grafica sarà possibile scegliere il tipo di sistema guest da installare ed impostare tutti i parametri della nuova macchina virtuale (dimensione dell'hd, memoria video, dimensione della RAM ecc.).  

E' importante in questa fase scegliere opportunamente la dimensione massima dell'hd virtuale: può essere impostata sia fissa che dinamica, nel primo caso avremo una immagine del disco virtuale della dimensione massima prefissata, nel secondo caso invece aumenterà fino al massimo stabilito man mano che installiamo software sul sistema guest.

Una volta fissata non si può ridimensionare quindi è meglio scegliere con criterio la dimensione massima. Per quanto riguarda la RAM da assegnare al sistema guest è bene scegliere sempre il minimo previsto per il sistema operativo che vogliamo installare (chiaramente chi ha un macchina host con 4 o più GB di ram può anche abbondare), anche se questo parametro è modificabile è meglio non esagerare pena problemi nel sistema host.

http://www.valent-blog.eu/illustrazioni/schermata8.png

Una volta fissati tutti i parametri della macchina virtuale da creare si può procedere all'installazione del sistema operativo: questa può avvenire tramite una immagine ISO, una immagine virtuale in formato VDMI, VMDK o VHD, oppure un dvd di installazione inserito nel drive del sistema host. Bisogna ovviamente seguire tutti i passaggi previsti dalla specifica procedura di installazione, ed una volta terminata avremo il nostro sistema guest pronto per essere avviato ed utilizzato.  


Condividi post
Repost0
31 ottobre 2011 1 31 /10 /ottobre /2011 20:07

Continua la serie di articoli dedicati alle classifiche: dopo La classifica dei Social Network più famosi nel 2011 è ora della classifica dei Browser Web. Aiutati dai dati forniti da StatCounter link  vi mostriamo la panoramica della situazione, sia per quanto riguarda il pc che il settore mobile. 

Iniziamo con i dati dei Browser per PC. 

StatCounter-browser-IT-monthly-201010-201110

Si nota subito il declino lento ma costante di Internet Explorer, che dal 50% e oltre del 2010 scende sotto il 40% nel 2011. Ciò nonostante il browser di casa Microsoft mantiene la prima posizione, segno che anche se l'antitrust ha impedito all'azienda di Bill Gates di mantenere il monopolio nel settore l'utenza continua a preferirlo ad altri browser.

Seconda posizione per Google Chrome che sul filo di lana stacca (anche se di poco) il concorrente diretto Mozilla Firefox, è da notare come il sorpasso sia avvenuto in concomitanza con l'uscita dell'ultima versione di Firefox, che evidentemente non ha entusiasmato più tanto gi internauti.

Da notare invece il continuo risalire di Chrome, che seppure ancora molto staccato rispetto a IE mostra buone possibilità di crescita nel lungo periodo, tanto da farci azzardare un aggancio se non un sorpasso in tempi nemmeno tanto remoti.

Costanti e staccati dal podio Safari ed Opera che in due coprono appena il 5% del mercato, decisamente troppo poco per sperare di insidiare i primi 3, anche considerando che nessuno dei due ha avuto segnali di crescita da un anno a questa parte. 

Se nel settore browser per PC Apple è abbastanza giù in classifica con il suo Safari, nel settore mobile la situazione si ribalta completamente :

StatCounter-mobile browser-IT-monthly-201010-201110

La versione Mobile di Safari, trainata dalla diffusione dell'Iphone mantiene saldamente il comando, con oltre il 40% degli utenti. Segue Android, che negli ultimi mesi raggiunge il 25% e stacca decisamente Nokia, in discesa netta appena sopra il 10%. Tiene la media Opera Mobile appena un pò sotto il 10%.

Staccati e decisamente a percentuali basse gli altri browser mobili. E' inutile dire che la diffusione dei browser mobili rispecchia anche la diffusione degli smartphones, cosi come Apple e l'Iphone sono in testa meritatamente, il declino di Nokia in favore di Android mostra come le quotazioni di Symbian siano nettamente in ribasso.

Aspettiamo l'evoluzione futura di Nokia,anche per vedere come si sta comportando Windows Phone con Internet Explorer, sul mercato da troppo poco tempo per essere inseriti nella statistica del 2011. 

Condividi post
Repost0
28 ottobre 2011 5 28 /10 /ottobre /2011 21:06

Chi come me ha quasi raggiunto i 30 anni di vita ricorderà sicuramente il Commodore 64. Commercializzato dal 1982 al 1993 detiene il record di esemplari venduti per singolo modello di Personal Computer: negli undici anni di vita ne sono stati venduti più di 17 milioni, una cifra incredibile che gli è valsa tra l'altro l'iscrizione nel Guinness dei Primati.   

http://www.metaquotidiana.it/public/files/Commodore64.jpgLa facilità d'uso e la semplicità con cui era possibile realizzare programmi compatibili con esso, unite al prezzo di vendita inferiore rispetto agli altri modelli in commercio nello stesso periodo sono stati i fattori fondamentali che hanno permesso al Commodore 64 di diventare il computer più venduto al mondo. Le "origini della specie" partono dal suo predecessore, il Vic-20, di cui riprende le linee e la base costruttiva (scelta dettata dalla necessità di tenere bassi i costi di produzione). 

L'idea geniale alla base della nascita del C64 è stata partorita nel 1981 dalla mente di Jack Tramiel, all'epoca presidente di Commodore, che dopo la progettazione dell'hardware (inizialmente pensato per una console di videogiochi) volle che quanto fino ad allora sviluppato dai suoi ingegneri diventasse la base di un nuovo modello di Personal Computer, che utilizzasse il quantitivo (un lusso per l'epoca, quasi il doppio rispetto ai migliori computer presenti sul mercato agli inizi degli anni 80) di 64 Kb di Ram.  

Il fatto di presentare al pubblico un prodotto con hardware avanzatissimo e molto meno costoso rispetto alla concorrenza (su tutti l'Atari 800, simile nell'hardware, l'Apple II, inferiore dal punto di vista hardware, lo Spectrum ZX e l'Amstrad CPC) unito ad una strategia di marketing che puntava sulla grande distribuzione con la vendita nei grandi magazzini e nei negozi di giocattoli oltre che nei negozi specializzati ne fece in breve tempo il leader indiscusso del settore. 

 

Il progetto hardware originale fu opera di un gruppo di circa dodici ingegneri i quali, successivamente, lasciarono la Commodore.Il Commodore 64 usava il microprocessore MOS Technology 6510, con 64 KB di RAM e 20 KB di ROM con il KERNAL ( Keyboard Entry Read, Network, And Link) e il CBM BASIC versione 2.0. A due chip separati era affidata la gestione di audio e video, mentre il registratore a cassetta necessario per caricare i programmi era gestito direttamente dal processore. Inoltre, poiché questo poteva indirizzare solo 64 KB di memoria in tutto, 20 KB di RAM erano nascosti dalla ROM. Un apposito registro permetteva di mappare in memoria la RAM nascosta escludendo temporanemente la ROM. La cosa fu molto utile nei programmi assembly, che grazie a questo sistema non avevano bisogno dell'interprete BASIC. 

La frequenza di clock era pari a 0,9875 MHz. Le istruzioni più semplici prendevano almeno 2 cicli di clock, quelle più complicate arrivavano 7. LA potenza di calcolo non era eccezionale per l'epoca, ma il processore poteva delegare molti compiti ai due chip aggiuntivi e questo migliorava molto le prestazioni. 

 Il chip video (il famoso VIC-II) poteva produrre 16 colori nativamente, ma un numero maggiore di colori era ottenibile con particolari algoritmi software. Aveva una risoluzione massima di 320 x 200 punti in hi-res, e di 160 x 200 in modalità multicolor. In modalità testuale forniva una visualizzazione di 40 colonne per 25 righe.

 Il chip gestiva fino a 8 sprite hardware, cioè delle forme grafiche facilmente gestibili per ottenere immagini e animazioni, disegnate sopra allo schermo tradizionale. Era inoltre capace di generare un interrupt in una qualunque linea di scansione del video desiderata. Questo permetteva di programmarlo in modo da usare un set di parametri diverso per zone diverse dello schermo, per esempio per riutilizzare un'altra volta gli 8 sprite, avendone così 16 o anche più disponibili sulla stessa schermata. 

 

Il supporto audio era superiore tutti i computer della stessa classe, tant'è che oggi su alcune schede audio professionali è utilizzato lo stesso processore del Commodore 64.Si basava sul chip SID 6581, progettato da Bob Yannes. Poteva riprodurre tre voci hardware, permettendo la riproduzione della voce umana senza hardware aggiuntivo e costruiva i suoni a partire da quattro forme d'onda fondamentali (a Impulsi o Quadra, Triangolare, a Dente di Sega, Rumore Bianco) più l'ADSR. Il numero di voci poteva essere aumentato con tecniche software che aggiungevano campionamenti audio PWM, dato che il SID poteva anche campionare segnali analogici con risoluzione di 4 bit. http://robertobizzarri.altervista.org/iweb/origine_files/Datassette_1.jpg

 

Fra le periferiche come non ricordare il mitico registratore a cassetta per caricare programmi e giochi (ricorderò sempre con un sorriso i tempi di caricamento da "era geologica" necessari a far partire street fighter). C'era anche il drive per i floppy disk, che addirittura possedendo un processore autonomo poteva essere utilizzato in assoluta libertà, si poteva formattare un disco e allo stesso tempo caricare un programma dal registratore a cassetta (adesso sembra una cosa banale, all'epoca era il massimo della tecnologia).

 

Concludo questa breve parentesi nel passato con una notizia che darà un piacere ai nostalgici, la società Commodore USA (linkche detiene i diritti di produzione del Commodore 64, commercializza dei cloni moderni del C64, con  cpu Atom e sistema operativo Ubuntu 10.10: un pensierino per Natale ce lo farei, magari Babbo Natale ci casca e ci fa anche ritornare bambini.  

Condividi post
Repost0
22 ottobre 2011 6 22 /10 /ottobre /2011 10:07

All'uscita di nuovi software, giochi, console e qualsiasi oggetto elettronico, di solito segue rapida come un fulmine l'uscita del corrispondente metodo per utilizzarlo illegalmente. 

Una rapida ricerca su internet della parola crack riporterà una serie infinita di siti da cui poter prelevare il necessario per far partire la copia pirata del software che più ci aggrada; in realtà però ben pochi quando parlano di crack, keygen, loader e patch sanno di cosa stanno parlando e tendono spesso a confondere i termini. 

Nel seguito proveremo a fare un pò di chiarezza :

Partiamo dal crack : con questo termine si identifica un software che permette di agire sulle protezioni di un programma commerciale, in modo da poterlo utilizzare senza le opportune licenze. C'è da chiarire che la parola indica la categoria generale: keygen, loader, patch e quant'altro sono tutti dei crack, ognuno con una struttura diversa, che hanno in comune lo scopo di far partire un software senza licenza del produttore.

http://blog.upyou.it/uploads/2009/07/cracking-wep.pngIl keygen è un programmino che genera la chiave di registrazione del software che vogliamo "piratare". Utilizza lo stesso algoritmo che è alla base della creazione del seriale che troveremmo sulla licenza del software se lo acquistassimo in modo regolare e non modifica minimamente i files dell'installazione, si limita a fornire il codice necessario a validarne l'installazione.

La patch è una modifica dell'eseguibile originale, che viene disassemblato in modo da scoprire le istruzioni che controllano l'originalità del prodotto. Una volta scoperte,     il cracker (colui che effettua il crack) le elimina o le modifica, e ricava un eseguibile che non effettua (oppure li effettua sempre come validi) i controlli di sicurezza. Questo metodo è molto usato per le no-dvd patches dei videogames, che permettono di giocare senza dover inserire ogni volta il dvd originale; in alcuni stati è legale utilizzarle, a patto di possedere la copia originale del gioco. 

Un loader invece è un particolare tipo di patch che modifica l'eseguibile caricato in memoria, è usato per i software che effettuano dei controlli di integrità sui loro stessi eseguibili al momento dell'avvio. Lavorando sui files caricati in memoria l'eseguibile originale non viene toccato, quindi eventuali controlli sono bypassati facilmente.

Terminiamo la nostra breve carrellata con una nota legale : normalmente chi realizza questi software commette un reato, dal momento che viola la proprietà intellettuale di chi ha creato il software originale. L'utilizzo di qualsiasi tipo di crack è illegale in quasi tutti gli Stati, anche se la legislazione in merito cambia Paese a Paese; in questo senso i paesi più permissivi sembrano essere la Russia,la Cina ed in generale i paesi dell Est europeo, dove sono localizzati la maggior parte dei server che ospitano i siti dedicati al cracking.

C'è anche da dire però che il cracking può essere visto come un esercizio di programmazione, non è raro imbattersi in una sorta di campionati di craking in cui sono le stesse aziende produttrici a sfidare i cracker nel trovare il metodo per craccare i loro programmi in modo da testare la sicurezza del proprio prodotto.     

Condividi post
Repost0
19 ottobre 2011 3 19 /10 /ottobre /2011 18:49

Dopo un attesa nemmeno troppo lunga Canonical ha rilasciato la nuova versione di Ubuntu, numerata come 11.10 e dal nome in codice Oneiric Ocelot (italianizzandolo diventa Gattopardo Onirico e non ha nulla a che vedere con il film di Luchino Visconti nè con il romanzo di Tomasi di Lampedusa). 

Al di là delle parentesi letterarie, questa nuova versione di Ubuntu presenta innumerevoli novità, vediamo di introdurre le più importanti.

http://m2.paperblog.com/i/55/556686/disponibile-la-prima-beta-di-ubuntu-1110-L-L-XqOd.jpegPartiamo dal kernel, questa nuova distribuzione si basa su Linux 3.0, quindi è compatibile con un gran numero di CPU, sia un pò vecchiotte che di ultima generazione, permette una migliore gestione del WI-FI, miglioramento di driver già esistenti e compatibilità con la maggior parte dell'hardware più recente. In parole povere può essere installata sia sui computer più recenti che su macchine con 3-4 anni di vita (seppur rinunciando a qualche orpello grafico e con prestazioni leggermente inferiori alle aspettative).

Un'altra grossa novità è rappresentata dall'abbandono della cara vecchia interfaccia Gnome, sostituita da Unity. Questa interfaccia, pensata sopratutto per tablet e schermi widescreen, rivoluziona completamente il concetto di desktop, abbandonando cartelle e icone in favore di una barra degli strumenti da cui si può attivare qualsiasi software installato.  

Bisogna dire che la nuova interfaccia non sta entusiasmando più di tanto gli utenti, in particolare chi (come il sottoscritto) non ha una scheda video particolarmente potente tende a maledire unity con una certa frequenza; per fortuna si può tranquillamente installare un ambiente grafico alternativo, come KDE o lo stesso Gnome. 

Per quanto riguarda le prestazioni questa nuova versione sembra molto reattiva e veloce anche (se su macchine non modernissime tende a perdere qualche colpo), merito sia del kernel 3.0 di cui abbiamo parlato in precedenza, sia del lavoro di ottimizzazione svolto dal team di sviluppo, che è riuscito a rendere il tutto estremamente pulito, affidabile e veloce. Anche il caricamento del sistema operativo ha subito un notevole incremento in velocità, aiutato dal nuovo login manager LightDM.  

La dotazione software è sempre notevole, i repository sono pieni di applicazioni di ottima qualità, per lo più free, che non fanno rimpiangere minimamente le soluzioni a pagamento.

E' stato eliminato il gestore di pacchetti Synaptic (che è comunque installabile a parte), il client e-mail di default è Mozilla Thunderbird, che fa paio col browser Firefox 7 installato di default. Molto utile lo strumento di Backup Deja Dup.

Per il resto notiamo una grande integrazione con tutti i Social Network ed il servizio Cloud offerto da Ubuntu One che mette a disposizione agli utenti registrati fino a 5 GB di spazio gratuito per sempre.

Amara sorpresa per gli sviluppatori o i semplici studenti, per colpa di Oracle che ha iniziato una politica meno aperta verso il software open-source, nei repository è scomparso NetBeans; in realtà non è niente di irreparabile a patto di installarlo manualmente dal sito, ma uno strumento di sviluppo cosi farebbe comodo comparisse nel software predefinito. 

In definitiva la nuova Ubuntu si presenta come una versione Linux domestica, adatta sopratutto a chi vuole una distribuzione Linux User-Friendly che sia facile da installare e configurare, gli utenti Linux più "integralisti" probabilmente storceranno un pò il naso e vireranno su altre distribuzioni  

 

Condividi post
Repost0
16 ottobre 2011 7 16 /10 /ottobre /2011 17:18

A tutti sarà capitato di avere a che fare con un problema al proprio Pc; a me come se non bastassero quello che mi procura ogni tanto il mio amato notebook capita spesso e volentieri di risolvere quelli di amici, parenti, conoscenti e amici dei conoscenti. 

Mi è risultato particolarmente ostico il problema che sui forum e i vari siti è denominato Black Screen of Death, non Blue come al solito ma Black (nero come la morte, è proprio il caso di dirlo).

 

http://ziogeek.com/wp-content/uploads/2009/11/windows7.pngIn pratica dopo aver acceso il Pc e fatto il login in Windows 7 invece di comparire il desktop compare una bella schermata nera da cui non puoi fare nulla, l'unica cosa che emette segni di vita è il led dell'hard disk che indica che il PC sta funzionando, pur non emettendo il minimo segnale a video. 

La prassi vuole che nel caso di problemi sconosciuti a un Pc la prima cosa da fare è cercare su google link. A questo punto inizio a leggere tutti i topic dei vari forum e blog e provo una per una tutte le soluzioni proposte :

 

1) è un malware ? (l'antivirus non lo segnala) 

2) un problema di driver della scheda video ? (lo escludo a priori, dato che il pc in questione l'ho formattato 2 settimane fa e funzionava tutto).

3) Un virus non meglio identificato ? (provo 2 antivirus in modalità provvisioria, e niente di anomalo).

4) Secondo alcuni si tratterebbe di un problema dovuto a un aggiornamento di Windows che imposta male un campo del registro di sistema e propone anche la soluzione, link, un bugfix che io provo con nessun risultato utile.  

 

Non venendone a capo in nessun modo mi sto quasi rassegnando alla formattazione, fino a che non mi viene il dubbio che sia davvero un problema al registro di sistema. Dal momento che in modalità provvisoria si accede normalmente a Windows provo il tentativo estremo.

Scarico CCleaner link, lo installo e faccio prima una pulizia dell'hd, hai visto mai che sia davvero un virus ? cancellando tutti i file temporanei di internet potrei risolvere la cosa. Trovandomi col programma aperto faccio anche una bella pulizia del registro di sistema, tanto per fugare ogni dubbio in merito alle cause del problema che mi ha fatto perdere già 2 ore di un pomeriggio qualsiasi di Ottobre. 

Finita la pulizia, che trova una ventina di errori vari, riavvio il PC e provo ad accedere a Windows. Incredibile ma vero : faccio il login e finalmente compare il desktop.

 

La cosa insolita è che anche avendo risolto il problema, per la gioia del mio amico disperato all'idea di perdere la tesi di laurea conservata sul notebook senza nemmeno un backup da qualche parte, non ho capito a cosa era dovuto.

 

Condividi post
Repost0
12 ottobre 2011 3 12 /10 /ottobre /2011 20:30

Tutti conosciamo Megaupload, il servizio di storage online più utilizzato al mondo. Tramite le sue funzionalità è possibile salvare per uso personale o condividere online archivi di grandi dimensioni; il servizio può essere free oppure a pagamento. http://4.bp.blogspot.com/_bDH9X9vtu80/S7mfReXzYhI/AAAAAAAAAU4/jIEWHM8-UCc/s1600/megaupload-news.jpg

Nel primo caso si possono fare upload di files fino a un massimo di 1 GB, c'è un limite di tempo oltre il quale il file viene rimosso, ci sono limiti giornalieri ai download ed altre limitazioni che non compaiono nel caso di un utente premium. Questi avranno accesso a servizi più completi, e tutta una serie di vantaggi che non tratteremo in questo articolo; nel corso di questa discussione vedremo come poter sfruttare al massimo anche le funzionalità free in modo da poter utilizzare megaupload come un servizio di condivisione di files efficiente e funzionale. 

Accedendo da utente non registrato al momento del download di un file aprendo il link apposito compare un contatore che ci costringe ad un attesa di 60 secondi prima di iniziare a scaricare il file. Inoltre non possiamo eseguire più download in contemporanea, cosa che ci costringe, nel caso di archivi di grosse dimensioni, ad aprire ogni singolo link e ad aspettare il fatidico minuto prima di iniziare il downolad.

Capirete che una situazione simile può apparire frustrante per la maggior parte degli internauti; è proprio per questo che ci vengono in aiuto alcuni software pensati proprio con lo scopo di facilitare la vita a chi non è abbonato al servizio premium di megaupload.

 

In particolare parleremo di due software, MDownloader e JDownolader. Il primo, scaricabile al seguente link permette di scaricare file multipli da quasi tutti i siti di hosting tra cui appunto Megaupload, Rapidshare,Depositfiles ecc.  

Il funzionamento è molto semplice,una volta eseguita l'installazione e scelta la cartella in cui si vogliono salvare i foles scaricati basta inserire il link del download, oppure della pagina in cui sono segnalati tutti i link in caso di download multiplo, ed il programma automaticamente metterà in downolad tutti i files indicati. http://www.chicchedicala.it/Img/Mdownloader/1.png 

Nel caso di superamento del limite giornaliero oppure nel caso si debba attendere un certo tempo prima di poter scaricare il file il software metterà il download corrispondente in coda per riprenderlo non appena sarà possibile. L'unica azione da compiere da parte dell'utente riguarda l'inserimento del codice alfanumerico richiesto da alcuni siti per convalidare il download, tutto il resto sarà a carico del software. 

Allo stesso modo anche JDownloader, prelevabile a questo link, permette di scaricare archivi dai principali siti di hosting. La differenza sostanziale è che questo programma è compatibile oltre che con gli account free anche con gli account premium di Megaupload.

 Il funzionamento è abbastanza simile a quanto visto in precedenza, ma in più possiede la funzionalità anti-captcha che ci permette di saltare il fastidioso inserimento del codice alfanumerico necessario per abilitare il downolad.

Inoltre se stiamo scaricando un grosso file suddiviso in più archivi compressi (cosa che capita frequentemente quando utilizziamo il servizio di hosting free con dimensione massima del file limitata) effettua automaticamente decompressione ed unione dei files in uno solo.

Un altra funzione interessante inserita nell'ultima versione di JDownloader riguarda la possibiltà di cambiare l'IP della connessione direttamente dall'interfaccia del programma. Questa è una funzione molto utile per tutti quei siti in cui compare l'avviso relativo al limite di download giornalieri assegnati al nostro IP. Non sarà più necessario riavviare il router oppure utilizzare un ulteriore software per cambiare l'IP dinamico, ma potremo farlo direttamente dal menu di JDownloader. 

http://vgiammar.files.wordpress.com/2011/03/jdownloader-password.jpg?w=510&h=382Concludiamo l'articolo ricordando ai lettori che questi due programmi sono solo una piccolo assaggio, e che in rete se ne possono trovare molti altri il cui funzionamento è simile. 

Ricordiamo inoltre che sono utilizzabili solo se si è a conoscenza dei link di riferimento, che devono essere rilasciati da chi ha effettuato l'upload. Insomma sono una buona alternativa nel caso di file sharing fra persone che si conoscono e hanno modo di scambiarsi i link in qualche modo, altrimento sono pressochè inutili.

Per finire vale la pena ricordare che è illegale condividere materiale protetto da diritti d'autore, quindi fate mota attenzione a cosa decidete di condividere, anche perchè spesso e volentieri chi gestisce i server di Megaupload controlla il contenuto del file e provvede alla rimozione dei link che contengono materiale protetto.  

 

Condividi post
Repost0
11 ottobre 2011 2 11 /10 /ottobre /2011 19:35

Attivando una contratto per usufruire della linea ADSL di Alice Telecom Italia nella maggior parte dei casi si riceve in comodato d'uso anche il router Wi-Fi che ci permetterà di navigare in internet con più dispositivi tramite una connessione senza fili. 

Purtroppo quello che si ottiene in dotazione è un router che nelle sue funzioni di base è molto limitato: per utilizzarlo al meglio bisogna o cambiare il firmware, cosa che però ne invalida la garanzia e crea problemi in caso di richieste di assistenza, oppure agire sui suoi parametri di configurazione in modo da migliorarne le prestazioni.

E' proprio questa soluzione che esploreremo nel dettaglio, cercando di dare quante più dritte possibile che cie permettano di utilizzare il nostro router al meglio delle sue possibilità.

http://www.guidafacilepc.it/wp-content/uploads/2009/02/alice-gate-2.jpg Innanzitutto partiamo col descrivere cosa ci arriva nella confezione al momento in cui il tecnico viene ad installare l'asdl a casa nostra.  Il router, i vari cavi necessari al collegamento ed i filtri da applicare alle prese telefoniche. Partiamo subito col dire che spesso sono proprio questi la causa di alcuni problemi : bisogna avere l'accortenza di mettere un filtro ad ogni presa telefonica cui è collegato un apparecchio, altrimenti avremo frequenti disconnessioni e problemi vari facilmente risolvibili ma che a un utente inesperto possono sembrare insormontabili. 

Una volta installato il tutto collegare in internet un computer tramite il cavo di rete è semplicissimo, una volta infilato il connettore nell'apposita porta il gioco è fatto. I problemi iniziano quando vogliamo collegare qualche dispositivo wireless, se si abita in condominio al momento di selezionare la rete probabilmente compariranno diversi identificativi, assicuratevi di selezionare il vostro SSID ed inserite la chiave di cifratura (li trovate scritti su un etichetta attaccata nella parte inferiore del router, oppure potete recuperarli collegandovi alla home page del router, digitando 192.168.1.1 nel browser e selezionando la voce Wi-Fi).  

Se la connessione va a buon fine e non avete particolari richieste potete anche accontentarvi, altrimenti ci sono altri parametri che possiamo settare per migliorare la situazione.Ad esempio sempre nella voce Wi-Fi c'è la possibilità di configurare a piacimento alcuni parametri, come il canale radio, il metodo di cifratura e il  controllo di accesso. 

Sarebbe opportuno cambiare il canale radio di default se ci si trova nella situazione in cui ci sono molte linee Wi-Fi attive nelle vicinanze. Infatti se tutte utilizzano lo stesso canale possono verificarsi situazioni di interferenza e/o colli di bottiglia nel canale che fanno decadere le prestazioni della rete.

Tramite un programmino come questo : link si può vedere quale è il canale meno occupato e settare il nostro router per trasmettere su di esso. 

Cifratura e modalità di accesso dovrebbero restare invariate, per evitare problemi di sicurezza. 

http://www.maxlaconca.com/ik8lov/wp-content/uploads/2011/01/alice1.pngSul lato destro del pannello di controllo si trovano i comandi per configurare vari aspetti, tra questi soffermiamoci sulla porta usb, da qui possiamo scegliere se utilizzare la porta usb posta sul retro del router per collegarci un hd esterno e creare un hard dsik di rete oppure una stampante, per avere una stampante di rete.

Il port mapping invece ci permette di aprire determinate porte dati, è utile per settare la configurazione dei programmi di file sharing, che di default sono inibiti.

Gli altri pulsanti si riferiscono ad aspetti un pò più tecnici, il consiglio è di lasciarli di default dato che non toccano più di tanto le prestazioni del router. 

Condividi post
Repost0
9 ottobre 2011 7 09 /10 /ottobre /2011 18:41

Con la diffusione della banda larga e la sempre maggiore capienza degli hard disk il pc di un qualsiasi appassionato diventa in breve tempo un contenitore di files di ogni tipo; dalle foto di digitali delle vacanze ai video girati sia con la videocamera digitale che col telefonino, passando per le collezioni musicali e cinematografiche, senza dimenticare chi utilizza il computer per lavoro e lo utilizza per memorizzare documenti e dati anche importanti (della quale sicurezza faremo argomento di un prossimo articolo). 

Capirete subito che un eventuale guasto all'hard disk può trasformarsi brevemente in una catastrofe per chi non ha pensato per tempo a salvare i propri dati su una qualsiasi periferica esterna. Per il backup dei dati si può utilizzare un qualsiasi supporto di memorizzazione, che siano una serie di DVD o un hard disk esterno non fa molta differenza, l'essenziale è che il backup sia esaustivo ed efficiente, in modo tale da salvare sempre le ultime versioni dei files ed evitare ripetizioni.

Oltre alla classica soluzione manuale, consistente nel copiare un file alla volta sul supporto destinato al backup c'è la possibiltà di utilizzare vari software che ci aiutano nell'operazione.

Esistono diversi programmi sia a pagamento che free che ci permettono di effettuare le operazioni di backup e ripristino dei dati in modo semplice ed efficiente; nel seguito dell'articolo ne analizzeremo alcuni, principalmente gratuiti.   

Iniziamo da HD Clone Free Edition link : http://download.html.it/img/software/screenshot_12bfa2f79ea9e5c2.jpgQuesto software permette di creare con pochi semplici passaggi una copia identica dell'hard disk del proprio computer, sistema operativo compreso. L'utente potrà creare un disco autoavviante da cui effettare il ripristino dei dati in pochissimo tempo.

Utilizzando invece BackUp Maker : link si potrà effettuare il backup di file e cartelle in modo rapido ed efficiente. Il software permette di programmare operazioni di backup automatico e di proteggere i file tramite password, con codifica AES a 256 bit; inoltre permette di scegliere fra backup totale, parziale o combinato e supporta l'archiviazione su cd, dvd, dischi usb e server FTP. 

Simile al precedente è Eazy Backup : link . Questo software permette oltre al backup sui supporti ottici o usb anche su altri pc e/o cluster eventualmente collegati al computer sorgente; inoltre permette di programamre le operazioni di backup, effettuando salvataggi incrementali che velocizzano molto il lavoro.

Sulla stessa scia si pone Backup4All : link. Propone piu o meno le stesse opzioni viste negli altri programmi, ma in più ha l'interessante funzione di compressione nativa che provvede alla compressione del file di backup senza bisogno bisogno di passare per un programma esterno, ed allo stesso modo provvede a scompattarlo in fase di ripristino.

 

Chiudiamo questa panoramica parlando brevemente di DropBox :  link http://download.html.it/img/software/screenshot_4fcde9afd2a9a899.png
Questo non è propriamente un software di backup, più che altro è una soluzione web per la condivisione di files, permette di salvare i files all'interno di una cloud in modo da renderli disponibili in qualsiasi momento da qualsiasi luogo. Nella versione free permette di archiviare fino a 2GB di dati, che diventano 100 se si acquista un account a pagamento. può essere una buona soluzione se si è interessati oltre a salvare i propri dati anche alla loro condivisione con altri.  

Condividi post
Repost0