Mentre COVID-19 continua a diffondersi attraverso i paesi di tutto il mondo, c’è una rinnovata attenzione per la pulizia quotidiana dai germi. Molto di ciò che è raccomandato è abbastanza standard per un’epidemia virale – stai ad almeno 1 m di distanza dagli altri, lavati spesso le mani ed evita di toccarti il viso – ma ci sono anche linee guida che suggeriscono di evitare di toccarti il viso dopo aver usato dispositivi digitali come iPhone e iPad.
Questo perché i dispositivi digitali possono ospitare molti cattivi germi nel tempo, specialmente se utilizzati da più persone. Si consiglia di mantenere pulito l’iPhone, evitare che altri lo utilizzino e lavarsi le mani regolarmente, ma come si pulisce un iPhone? Nonostante la resistenza all’acqua offerta dai modelli più recenti, va fatto molto di più oltre al risciacquo sotto l’acqua per difendesi dal coronavirus.
Puoi dare al tuo iPhone una pulizia standard spegnendolo e usando un panno umido privo di lanugine, facendo attenzione a non far entrare liquidi nelle aperture dei dispositivi più vecchi. Ma mentre questo è sufficiente per le impronte sporche e occasionali, virus come il Coronavirus hanno bisogno di qualcosa di un po ‘più forte.
Apple ha recentemente aggiornato le sue linee guida per dare risposta a questo, e ora consiglia attivamente di utilizzare una salviettina imbevuta di alcol isopropilico al 70% per disinfettare completamente il tuo iPhone prima dell’uso. Altri disinfettanti chimici a base di candeggina o cloro all’1%, solventi, alcol (etanolo) al 75%, acido peracetico e cloroformio uccidono il virus e ne annullano così la sua capacità di infettare le persone anche attraverso oggetti.
Basta pulirlo sul display e sul corpo del tuo iPhone, assicurandoti di non immergere il dispositivo in detergenti perché possono entrare anche in dispositivi teoricamente impermeabili. Una pulizia fatta con salviettine imbevute di alcool e acqua o candeggina allo 01% dovrebbe essere più che sufficiente per disinfettare il tuo iPhone.
Consigliamo anche di pulirlo con un panno privo di lanugine per rimuovere l’eventuale liquido in eccesso e dovresti evitare di pulirlo con materiali abrasivi.
Esiste anche il rischio che l’alcool possa logorare il rivestimento oleorepellente del display, quindi non farlo troppo spesso, ma vale sicuramente la pena farlo ogni tanto per evitare la trasmissione accidentale del virus.
È un momento di cambiamenti significativi, che nessuno di noi può prevedere. Segnalato per la prima volta a Wuhan, in Cina, il 31 dicembre 2019, la malattia di Coronavirus (COVID-19) sta iniziando a cambiare la vita personale e lavorativa in tutto il mondo. Considerato dall’Organizzazione mondiale della sanità meno letale ma più contagioso di suo cugino SARS-CoVid, COVID-19 sta facendo sentire la sua presenza in modi che possiamo vedere e in molti modi che ancora non possiamo.
Le conferenze nazionali e internazionali rappresentano un caso di studio interessante: le aziende e le comunità lungimiranti, con vaste risorse tecnologiche, possono impiegare questo tempo per rivalutare alcune delle loro strategie per quanto riguarda gli eventi faccia a faccia. Ancora più importante, questa transizione può aiutare paesi, aziende in tutto il mondo affrontando la sfida più grande dei nostri tempi.
L’industria del software, tra gli altri, ha visto un effetto immediato nelle cancellazioni di molte importanti conferenze di tecnologia. Il primo annullamento che molti hanno notato è stato l’evento annuale delle telecomunicazioni, il Mobile World Conference a Barcellona. L’ultima “vittima” nello spazio delle conferenze è stata Kubecon / CloudNativeCon EU, che è stata finora rimandata a luglio.
A fronte di COVID-19, le grandi aziende tecnologiche sono state in molti casi i primi a cancellare le conferenze gestite dall’azienda: Facebook con F8, Google con Google I / O e Cloud Next, Microsoft con il suo Ignite Tour e altro ancora. Questo faceva parte di una più ampia iniziativa di grandi aziende tecnologiche e di altri settori per limitare i viaggi di lavoro non essenziali, che di per sé avrebbero avuto un grave effetto sulla partecipazione di alcuni di questi eventi.
È l’inizio di un’era molto difficile per chiunque lavori in settori che supportano eventi (gestione di eventi, viaggi, ospitalità, fotografia, catering e altro), mentre coloro che supportano l’interazione virtuale ne trarranno vantaggio.
L’avversione stereotipata di alcuni sviluppatori all’interazione umana faccia a faccia è stata oggetto di numerosi articoli di ricerca, articoli e meme online. Alla luce di ciò, potrebbe essere che il modello virtuale si rivelerà in alcuni aspetti più efficace per il coinvolgimento e la consegna dei contenuti.
Se lo scopo di alcuni di questi eventi è educare gli sviluppatori e diffondere informazioni, devono necessariamente essere eventi fisici? Molte conferenze ruotano verso un modello virtuale da qui ai prossimi mesi.
Potremmo non vedere affatto alcune di queste conferenze tornare: come suggerito di recente sul blog di strategia tecnologica Stratechery, il successo di Facebook dipende più dalla gestione del suo patrimonio immobiliare digitale che dalla sua conferenza degli sviluppatori F8, soprattutto perché investe risorse significative in sicurezza e privacy.
In realtà, potremmo iniziare a guardare ad eventi tecnologici di successo che sono già solo virtuali. Eventi come All Day DevOps, Global Devops Bootcamp e HashiTalks indicano la strada per gli eventi incentrati sugli sviluppatori gestiti da comunità e venditori allo stesso modo.
La crisi di eventi innescata da COVID-19 può dimostrarci che molti degli eventi a cui partecipiamo non sono cruciali. Ancora più importante, se all’improvviso è possibile per le società e i governi limitare i viaggi per salvaguardare il loro pubblico, allora ciò può insegnarci una lezione importante per la minaccia molto più esistenziale che è già qui: il cambiamento climatico.
In un rapporto pubblicato a novembre 2019 da un team di scienziati climatici di livello mondiale, è stato affermato che “quasi il 75 percento degli impegni sul clima sono parzialmente o totalmente insufficienti per contribuire a ridurre le emissioni di gas a effetto serra del 50 percento entro il 2030”. Man mano che le aziende subiscono una crescente pressione da parte di governi, investitori e dipendenti affinché accelerino i loro sforzi per ridurre le emissioni di carbonio, reinventare conferenze su cloud, open source e ingegneria del software sembra un ottimo punto per avere un impatto reale.
Oppo ha creato il suo nome tramite telefoni di fascia media rivolti ai giovani, ma i suoi nuovi Find X2 e Find X2 Pro sono dotati di specifiche di livello. Il produttore cinese ha presentato i nuovi telefoni – insieme a un nuovo smartwatch chiamato Oppo Guarda – quasi due anni dopo il lancio del suo predecessore, l’Oppo Find X. Il Find X2 costa 999 euro circa. Find X2 Pro sarà a 1.199 euro.
Oppo è il quinto produttore di telefoni al mondo. È emerso come una minaccia per Apple negli ultimi anni, offrendo funzionalità come display no-notch e sensori sotto il vetro che non si trovano su iPhone.
I telefoni sono stati annunciati in occasione di due eventi live streaming simultanei a Barcellona e Pechino. Il lancio era originariamente previsto per la fine di febbraio al Mobile World Congress, che è stato annullato a causa dei timori per l’epidemia di coronavirus.
Prime impressioni su Oppo Find X2 Pro
Oppo Find X2
Sia Find X2 che Find X2 Pro sono dotati delle specifiche premium che ti aspetteresti da telefoni di punta: funzionalità 5G, il nuovissimo chipset Snapdragon 865 e ricarica superveloce. Secondo Oppo, Find X2 Pro ha una capacità della batteria di 4.260 mAh e può essere completamente ricaricato in soli 38 minuti.
Il resto si apprezza attraverso l’esperienza pratica. Find X2 Pro è un telefono elegante con un aspetto futuristico. Questo è dovuto in parte grazie alla sua cornice ultra-stretta e al suo bordo leggermente curvo, che si piega con un angolo fino a 67,8 gradi su entrambi i lati. Non è difficile premere i pulsanti sul bordo e si può fare facilmente senza premere o toccare accidentalmente lo schermo. Il Find X2 Pro è più lungo e leggermente più stretto dell’iPhone 11 Pro Max e dell’iPhone XS Max, questo consente una presa più semplice e comoda rispetto a entrambi quei modelli. Il suo schermo AMOLED da 6,7 pollici e una frequenza di aggiornamento di 120Hz lo rendono il miglior display di sempre su un telefono Oppo e lo mettono al livello con il Samsung Galaxy S20. Ha anche una frequenza di campionamento touch a 240Hz e un lettore di impronte digitali sullo schermo.
Forse il cambiamento più evidente del Find X2 è l’assenza della sua apparente fotocamera selfie pop-up. Invece c’è una tacca sul lato sinistro dello schermo, che ospita una fotocamera selfie da 32 megapixel. La decisione di Oppo di abbandonare una delle caratteristiche più distintive di Find X potrebbe suggerire che non ha fatto molto di più che consentire una visualizzazione ininterrotta.
Notch o no notch, il Find X2 Pro ha capacità di fotocamera strabilianti. È dotato di una configurazione a tripla fotocamera sul retro, che è dotata di non uno ma due enormi sensori da 48 megapixel che presentano la fotocamera ad angolo ultrawide e la fotocamera principale. Cattura immagini a 3K, significa che i colori catturati nelle foto sono nitidi, vibranti e persino drammatici, sebbene non siano fedeli al reale come le foto scattate con un iPhone 11 Pro, che sono più opache ma catturano gli elementi circostanti in modo più realistico.
Alcune delle funzioni di zoom di Find X2 denotano che la qualità dell’immagine dallo zoom ibrido 10x è eccezionale, in concorrenza con le funzionalità dello zoom digitale 10x di iPhone 11 Pro.
Anche l’imaging in condizioni di scarsa luminosità è stato impressionante, in parte grazie al sensore Sony IMX 689, che offre alla Find X2 potenti capacità di ripresa di notte. Passando alla modalità notturna mostra cieli illuminati e grigiastri che non assomigliano affatto alla vita reale. Altre foto scattate di notte usando lo snapper principale erano vibranti e avevano profondità e consistenza meravigliose. Però sembravano troppo elaborate, ma questo potrebbe non essere un problema per tutti.
Secondo una relazione della società di recensioni dei consumatori, Witch?, più di un miliardo di dispositivi Android sono a rischio in quanto eseguono versioni di Android che non ricevono più aggiornamenti di sicurezza. Seguendo il suo ciclo di aggiornamento, Google offre ora aggiornamenti di sicurezza solo per i dispositivi che eseguono Android 10, Android 9 Pie e Android 8 Oreo.
I dispositivi che eseguono Android 7 o versioni precedenti non sono più idonei per gli aggiornamenti di sicurezza e pertanto “comportano rischi per la sicurezza”, come indicato nel rapporto. L’anno scorso, Google ha rilasciato i dati di adozione di Android, in cui ha rivelato che circa il 40% dei dispositivi Android è ancora alimentato da Android 6 o versioni precedenti.
Nel rapporto, il servizio per i consumatore con sede nel Regno Unito ha acquistato diversi dispositivi Android che non ricevono più aggiornamenti di sicurezza a causa della versione precedente di Android e li ha infettati con successo con malware. La società è riuscita a infettare alcuni dei dispositivi con più malware dimostrando i gravi rischi per la sicurezza che i vecchi dispositivi Android devono affrontare.
Witch? ha affermato che è responsabilità degli OEM assicurarsi che gli utenti siano più consapevoli della durata temporale per la quale uno smartphone riceverà gli aggiornamenti.
Mentre Google rilascia aggiornamenti di sicurezza Android per 3 anni per i suoi dispositivi Pixel e dispositivi in esecuzione su Android One, diversi produttori non offrono aggiornamenti per la stessa durata e raggiungono il loro fine del supporto, a volte, entro un anno o due.
Witch? sostiene che Android dovrebbe anche ricevere aggiornamenti per un periodo di tempo più lungo come offrono altri sistemi operativi come Windows e iOS. Ad esempio, iOS 13 rilasciato nell’ottobre 2019 supporta iPhone SE che è stato lanciato nel marzo 2016. Allo stesso modo, Windows 7 è stato rilasciato nel 2009 e ha raggiunto la fine del supporto quest’anno.
L’importanza di adottare misure di sicurezza adeguate per salvaguardare il proprio account online è aumentata con il tempo. In questo caso, tecnologie come l’autenticazione a 2 fattori svolgono un ruolo importante.
Tuttavia, nonostante vari avvisi emessi di tanto in tanto, il nostro atteggiamento non è cambiato molto e spesso compromette i nostri account. I funzionari Microsoft che hanno parlato alla Conferenza RSA hanno rivelato che quasi il 99,9% di tutti gli account compromessi scoperti non disponeva di metodi di autenticazione a più fattori (MFA).
Di solito, Microsoft ha oltre 1 miliardo di utenti attivi mensili e gestisce oltre 30 milioni di richieste di accesso al giorno. Qui, la percentuale di account che vengono compromessi ogni mese è di circa lo 0,5%. E per gennaio 2020, il numero è di 1,2 milioni.
I responsabili hanno anche rivelato che solo l’11% di tutti gli utenti aziendali ha utilizzato l’AMF almeno una volta nel mese di gennaio. L’uso dell’AMF avrebbe risparmiato molti se non tutti quei 1,2 milioni di account, hanno osservato.
Qui, le tecniche più comunemente usate dagli aggressori sono la forzatura della password. In questo caso chi attacca tenta di forzare la password di più account utilizzando un gruppo di password comunemente usate. Per l’inoltro della password, l’hacker utilizza le credenziali di accesso di un utente compromesso su altri servizi.
Sebbene sia una cattiva pratica, è normale che molte persone utilizzino la stessa password in più punti e aumentino le possibilità di essere hackerati.
Per tutti viene messa in atto un’autenticazione a più fattori aggiungendo più livelli di credenziali per fornire l’accesso a un account online o un’altra risorsa. La sua implementazione di base può essere l’autenticazione basata su OTP tramite SMS, ma soluzioni più avanzate implementano token di sicurezza basati su hardware. Le aziende tecnologiche mirano anche ad accedere senza password utilizzando tecnologie come WebAuthn.
Gli esperti hanno anche rivelato che gli aggressori prendono di mira principalmente protocolli di autenticazione più vecchi come POP e SMTP perché non supportano MFA. Inoltre, eliminare questi protocolli legacy dai sistemi di un’organizzazione è un compito noioso.
Hanno riscontrato una riduzione fino al 67% degli account compromessi per coloro che hanno disabilitato i protocolli di autenticazione legacy. Pertanto, Microsoft consiglia di rendere l’autenticazione legacy un ricordo del passato.
La Web Reputation, o reputazione online, è la percezione, valutazione e opinione che le persone, clienti, consumatori ma anche fornitori e concorrenti hanno della nostra immagine, come persona, azienda o organizzazione. Equivale a quello che dicono di noi su internet e su tutte le piattaforme del web.
In questo articolo vedremo cos’è la Web Reputation, come funziona la reputazione online, perchè è importante e come gestire al meglio la propria immagine sul web.
Cos’è la Web Reputation e come si crea
Internet è il luogo dove tradizionalmente clienti e consumatori dialogano fra loro e si scambiano impressioni e valutazioni sulle loro esperienze di acquisto.
Questo processo continuo contribuisce in maniera determinante alla nascita e alla formazione di una reputazione online, sia per le persone che per le aziende e i liberi professionisti.
La reputazione online viene costantemente formata e aggiornata in qualsiasi parte del mondo, attraverso le discussioni che le persone fanno su marchio, i suoi prodotti o servizi.
Se da un lato le critiche costruttive possono aiutare il marchio a migliorare, delle informazioni lesive della reputazione pubblicate attraverso i differenti canali di internet possono veramente distruggere il lavoro di anni.
Come è facile immaginare, una reputazione online positiva è il desiderio e l’obiettivo di tutte le imprese, ma poche organizzazioni sono consapevoli del fatto che la propria reputazione online può subire delle importanti variazioni nel giro di pochi giorni.
Per evitare inconvenienti e sorprese, che possono minare in maniera importante il proprio business, è quindi necessario essere consapevoli del valore della reputazione online e inserire la gestione della reputazione su Internet come elemento fondante della propria attività di impresa.
La cosa peggiore è che molto spesso le aziende non si rendono neanche conto delle critiche, o non riescono esattamente a capire da dove provengano. E invece ogni azienda dovrebbe avere strumenti di monitoraggio per osservare il flusso delle informazioni che riguardano l’attività di impresa.
È qui che entra in gioco la gestione della reputazione online, una disciplina che combina il marketing, le pubbliche relazioni e il lavoro sui motori di ricerca.
La gestione della Web Reputation permette alle aziende di essere consapevole della propria immagine digitale, proteggere e gestire il proprio marchio.
L’obiettivo fondamentale di ogni gestione della Web Reputation è alla fine quella di avere una buona visibilità, avere risultati positivi nei risultati dei motori di ricerca, ottenere un’immagine del marchio forte e senza particolari criticità, e creare delle discussioni sui social che rafforzano il valore della propria attività.
L’impatto della reputazione online su persone e aziende
In una situazione economica come quella di oggi, così volatile, ogni azienda deve concentrarsi costantemente sul marketing per raggiungere i suoi obiettivi. Il successo di un’attività imprenditoriale dipende da tanti fattori e uno di questi, estremamente importante, è proprio la reputazione.
Se da un lato ogni persona e azienda desidera avere una presenza su internet per allargare le proprie prospettive di vendita ed entrare direttamente in contatto con i clienti, dall’altro lato deve essere in grado di gestire le critiche o eventuali recensioni negative.
Che cosa succede ad esempio se un’azienda non sa gestire le opinioni dei propri clienti su internet? Cosa può accadere se collaboratori e dipendenti non sanno comportarsi sui social media o compiono degli errori di reputazione online?
Questi sono alcuni esempi che permettono di capire al volo come ogni attività imprenditoriale dovrebbe sviluppare un piano di reputazione online, ed essere in grado di metterlo in pratica quanto prima.
La catena di caffetterie Dark Horse Cafè ricevette una serie di tweet in cui veniva criticato il fatto che nei loro bar non c’erano attacchi per caricare smartphone e computer portatili. La risposta dei loro responsabili fu inappropriata e suonava sostanzialmente come: “Siamo un bar, non un ufficio.” Molti blogger su Internet riportarono questa aspra reazione peggiorando la situazione. Un esempio negativo di gestione delle relazioni pubbliche e un danno per la reputazione online
Qualche anno fa, la Nestlè ricevette commenti negativi sulla poca attenzione per l’ambiente e per il riciclo dei rifiuti. I manager scelsero di non rispondere minimamente alle critiche. Questa decisione però, causò un netto peggioramento della situazione. La comunità su internet incominciò a postare delle versioni alternative del logo della Nestlè, prendendola in giro sulla sua capacità di ascoltare i clienti. La situazione divenne così delicata che l’azienda fu costretta a sospendere momentaneamente le sue pagine pubbliche e i profili social.
Il ristorante americano Amy’s Baking Company ricevette una volta una recensione ad una stella su internet e iniziò ad insultare il recensore. Gli insulti erano talmente offensivi che si scatenò una vera e propria lite che assunse delle proporzioni importanti. Addirittura un programma televisivo dedicò alcune puntate su quel ristorante e sul modo con cui i proprietari reagivano male alle critiche.
Questi sono solamente alcuni esempi che dimostrano come la gestione della reputazione online sia fondamentale per tutti i tipi di aziende e che un problema reputazionale si può verificare potenzialmente in qualsiasi momento.
Come gestire la propria Web Reputation?
Come abbiamo detto, la reputazione online consiste nel modo con cui gli altri vedono il nostro marchio o la nostra persona su internet. La Web Reputation è formata da molti contenuti diversi: dalle notizie sui giornali, ai post su blog privati, a profili sui social media, e in generale dalle ricerche su Google. In pratica, da tutto ciò che è pubblicamente disponibile su internet.
Come si gestisce la propria Web Reputation? Il primo elemento sono i canali di comunicazione ufficiali dell’impresa, come per esempio il sito internet e i social network, che vengono gestiti direttamente dall’azienda e dalle persone che vi partecipano.
Esistono poi dei canali reputazionali che l’organizzazione non può controllare ma che dovrebbe comunque monitorare: si tratta di tutte quelle piattaforme dove i consumatori possono esprimere la loro opinione sul marchio come siti, blog, social network e portali di recensioni.
I tre focus per gestire la Web Reputation
In linea generale ci sono tre passi per ogni corretta gestione della reputazione online che possa raggiungere dei buoni risultati.
Monitorare quello che viene detto on-line sul marchio
Analizzare come queste informazioni possono colpire o avvantaggiare la Web Reputation del Brand
Influenzare i risultati partecipando attivamente a tutte le conversazioni e alle discussioni sul marchio e cercare di eliminare le informazioni negative
Nel momento in cui un’azienda ha un piano completo di gestione della reputazione online otterrà una serie di vantaggi tra cui molte più possibilità e capacità di reagire alle critiche, fino addirittura a prendere il controllo delle discussioni sul proprio marchio, orientando attivamente i clienti su nuovi prodotti e servizi.
In altre parole si può dire che la gestione della reputazione on-line è una scienza che consente alle aziende di essere sicura che la propria organizzazione e la propria attività venga percepita per quello che è veramente.
Una buona reputazione online si traduce per un’impresa in maggiore credibilità, migliori ritorni delle proprie campagne pubblicitarie e di tutti i propri investimenti nel marketing e più tempo da dedicare alla soddisfazione dei clienti.
Parte integrante della reputazione on-line sono le recensioni. Qui le cose sono leggermente più complesse.
In realtà tutti i commenti, in parte anche quelli negativi, possono essere di beneficio per un’azienda. Ecco perché è importante incoraggiare tutti i propri clienti e rilasciare dei feedback on-line.
Quelli positivi aiuteranno certamente il marchio a rafforzarsi e a comunicare i suoi punti di forza, allo stesso tempo quelli negativi permetteranno di individuare delle criticità da migliorare.
In questo senso, diventa estremamente importante il modo con cui le aziende rispondono alle critiche che ricevono in un dato momento.
I sette elementi integrati per gestire e migliorare la Web Reputation
La gestione della reputazione on-line, può anche essere schematizzata in 7 passi fondamentali
Presenza sul web
Ogni azienda deve avere e ottimizzare la sua presenza su Internet, il che include la gestione dei propri profili sui social media, e il continuo aggiornamento delle proprie informazioni di contatto su tutte le piattaforme su cui è presente
Recensioni online
L’azienda deve individuare le piattaforme su cui i propri potenziali clienti o i clienti acquisiti rilasciano le recensioni, monitorare la situazione ed essere in grado di intervenire con delle tecniche adeguate.
Gestione dei social media
L’azienda deve individuare le piattaforme su cui i propri potenziali clienti o i clienti acquisiti rilasciano le recensioni, monitorare la situazione ed essere in grado di intervenire con delle tecniche adeguate.
Sondaggi
Non solo le grandi organizzazioni ma anche le piccole e medie imprese dovrebbero compiere dei continui sondaggi interni per valutare il livello di soddisfazione della clientela, anche prima che questo si riversi online.
Analisi dei dati
La grande quantità di dati che può provenire da un corretta monitoraggio e gestione della reputazione online deve essere raccolta in report regolari. La cosa più importante è anche saper interpretare i dati e le informazioni per stabilire delle strategie e dei piani operativi concreti.
Confronto con i concorrenti
Le aziende devono misurare anche l’immagine del Brand dei loro concorrenti e la reputazione online delle aziende che competono nello stesso mercato, in modo da migliorare la propria reputazione online e in generale proprio business.
Coerenza e formazione del personale
Un solo esperto di reputazione online e di gestione della web reputation all’interno di un’azienda non è sufficiente, se non ci sono delle buone linee guida seguite da ogni partecipante all’attività professionale.
In linea generale tutto il tempo e i soldi che un’azienda investe nel creare o rafforzare la propria reputazione online ritorneranno certamente in termini di nuovi clienti e acquisti.
La rimozione di articoli da internet e dal web, riuscire a cancellare una notizia, in particolare dal motore di ricerca Google, è una esigenza molto sentita da parte di privati, piccoli professionisti e aziende.
Cancellare e rimuovere articoli diffamatori o negativi da internet è una operazione delicata, che coinvolge diversi elementi: le legge, le norme sul web, la capacità di contrattazione e specialisti SEO.
Quali sono le strategie migliori per ottenere la rimozione o almeno la deindicizzazione di articoli da internet e da Google? Come riuscire a cancellare una notizia negativa su di noi da Google e da Internet?
In questa guida vedremo le tecniche più utilizzate.
Rimuovere articoli e notizie da internet dalla fonte
La cosa più semplice è, in teoria, la rimozione, cancellazione e deindicizzazione degli articoli diffamatori e negativi direttamente dalla fonte che l’ha pubblicata.
In questo caso è importante risalire all’autore. Nel caso di un giornale online o di una piattaforma strutturata, è necessario contattare la redazione e seguire il complesso sistema redazionale per individuare l’autore del pezzo, il caporedattore o chi in generale ha il potere di deciderne la rimozione.
In altri casi, come in un blog gestito da un privato, la situazione potrebbe essere più complessa. Se l’autore non ha indicato chiaramente i suoi contatti, è possibile consultare i registri Whois per tentare di risalire al nome e ai riferimenti del proprietario.
Individuare l’autore o il responsabile di un articolo diffamatorio o negativo è però solamente il primo passo.
Bisogna essere in grado di gestire le comunicazioni e una vera e propria trattativa con l’autore del contenuto, per capire come arrivare alla volontaria rimozione, cancellazione o deindicizzazione del contenuto.
Rimuovere articoli da internet con il diritto alla privacy
Per ottenere la rimozione di articoli da internet è possibile, allo stato attuale, appellarsi a tre grandi elementi normativi.
Il primo è il diritto alla privacy. La riservatezza dei dati personali, delle proprie informazioni, e il diritto a vedere protetto tutto ciò che ci riguarda è garantito dalle normative di ogni paese.
Questo tuttavia viene controbilanciato dal diritto di cronaca, che consente, qualora si ravvisi l’utilità pubblica di divulgare delle informazioni, di raccontare un fatto e diffondere i fatti su individui ed aziende.
Per questo motivo, è necessario conoscere molto bene la normativa, in modo da far valere in maniera corretta il proprio diritto alla riservatezza e ottenere, senza entrare in aperto contrasto con l’autore, la rimozione dell’articolo da internet e dal web e la cancellazione delle notizie negative.
Rimuover e cancellare articoli da internet con il diritto all’oblìo
Un secondo grande aiuto per rimuovere articoli da internet e far cancellare notizie negative sul nostro conto è quello del diritto all’oblìo.
Fino a qualche anno fa si trattava solamente di un nebuloso diritto teorico, ma il recente aggiornamento delle leggi lo ha reso uno strumento davvero utile per ottenere la rimozione di articoli da internet.
Il diritto all’oblìo riconosce il diritto ad essere “dimenticati” dopo un determinato lasso di tempo. Questo in ottica di un aggiornamento della propria situazione personale e della possibilità di essere riabilitati agli occhi della società.
Il Diritto all’oblìo ha una tempistica variabile. In caso, ad esempio, di un processo a nostro carico che si è concluso con una assoluzione, o di un coinvolgimento marginale, è possibile ottenere subito la rimozione degli articoli da internet e la cancellazione delle notizie, o al massimo entro i due anni.
In caso di condanna, il diritto all’oblìo è invece riconosciuto normalmente dopo 5 anni, 10 anni in casi gravissimi.
Anche in questo caso, è fondamentale una minima conoscenza della normativa e dei metodi con cui gestire le comunicazioni con la fonte. Una richiesta troppo generica e poco circostanziata potrebbe non essere efficace, mentre una domanda eccessivamente “aggressiva” potrebbe tradursi in un contenzioso legale che rallenta e rimanda la rimozione dell’articolo da internet da parte della fonte.
La rimozione degli articoli da internet con il diritto d’autore
Un terzo elemento da considerare è il diritto di autore. Molto spesso diverse piattaforme pubblicano contenuti senza la volontà specifica di rubare il lavoro di terzi, ma solo per una generale superficialità.
In altri casi invece, le piattaforme adottano stratagemmi come abbassare la qualità del contenuto di immagini o video, o riportare solo una parte del testo (una vecchia regola dice meno del 20%) difendendo la propria legalità.
In questo caso ci si avventura nel tema del diritto d’autore che è decisamente complesso: in linea generale bisogna conoscere i termini e i modi con cui un materiale può essere riutilizzato, tanto più quando il proprio materiale non è coperto da un copyright o un brevetto specifico.
Rimuovere articoli da internet con il link di Google
Un altro grandissimo strumento per ottenere la rimozione di articoli da internet e soprattutto da Google è utilizzare lo strumento di cancellazione e rimozione degli articoli dal motore di ricerca.
Si tratta di una opzione messa a disposizione dallo stesso Google e che può tornare molto utile per raggiungere l’obiettivo di rimuovere o cancellare gli articoli dal web. Vediamo come utilizzarlo:
Inserire i propri dati anagrafici
Il modulo parte da un form da compilare con i propri precisi dati anagrafici. E’ importante in questo caso inserire le informazioni che coincidono esattamente con la propria documentazione e carta di identità.
Specificare per conto di chi si richiede la rimozione degli articoli
Inoltre è fondamentale specificare per conto di chi si sta facendo richiesta di rimozione degli articoli da Google. Se lo si fa per un amico, un parente o un cliente, scatta la necessità di allegare della documentazione specifica.
L’obiettivo è dimostrare il titolo e la qualifica per richiedere la rimozione degli articoli da Google e stabilire con precisione il tipo di rapporto con la persona interessata.
Specificare quali articoli rimuovere da Google
Segue un modulo che ci permette finalmente di stabilire quali articoli vorremmo rimuovere da Google. La struttura è la seguente:
(1) il tipo di correlazione tra le informazioni personali identificate sopra e la persona per conto della quale viene fatta questa richiesta; e (2) perché ritieni che tali informazioni personali debbano essere rimosse
Una corretta formattazione, dunque, può essere:
“(1) Questa pagina mi riguarda perché a, b e c. (2) Questa pagina dovrebbe essere rimossa perché x, y e z”.
E’ possibile richiedere la rimozione di un numero ingente di link e di articoli, a patto che venga specificato per ognuno di questi la ragione precisa.
Infine il modulo contiene una serie di dichiarazioni giurate da completare e a cui dare l’ok. Si tratta di conferme che hanno un valore legale che saranno correlate al proprio indirizzo IP e ai dati identificativi rilasciati, motivo per cui vanno eseguite con assoluta precisione.
Google fornisce una risposta entro un tempo che può andare dai 30 ai 90 giorni.
Elemento importante è circostanziare esattamente la propria domanda: è necessario accompagnare la richiesta di rimozione degli articoli da Google da normative e motivazioni ben precise e soprattutto valide.
In caso di diniego infatti, Google consente teoricamente di effettuare una nuova domanda, ma le successive richieste difficilmente avranno successo, proprio in quanto è già stata concessa una valutazione iniziale.
Rimozione, deindicizzazione e contrazione degli articoli negativi su internet
Cosa si può ottenere da una serie di procedure di rimozione e cancellazione di articoli sul web?
L’obiettivo più importante è quello delle effettiva rimozione, ovvero la cancellazione dell’articolo o degli articoli da internet. In questo caso la risorsa non è più raggiungibile e scompare del tutto.
In realtà è possibile che nella pagina dei risultati dei motori di ricerca rimanga un “ricordo” del contenuto: si tratta della memoria, della cache, che viene eliminata fisiologicamente entro alcune settimane.
Diversa è invece la deindicizzazione dell’articolo da internet. In questo caso il contenuto, l’articolo o il post, rimane tecnicamente online. Digitando l’URL corrispondente si arriva effettivamente a leggere il contenuto.
Tuttavia, l’autore del testo aggiunge una piccola istruzione, un piccolo codice alla pagina web, che suggerisce a Google di non indicizzare e non mostrare nella pagina dei risultati il testo, il che equivale ad una importante pulizia del proprio nome.
A questo punto, l’unico effettivo metodo per risalire al contenuto è quello di conoscerlo già e cercare lo specifico URL della notizia.
Un terzo possibile risultato è quello di ottenere, specie dalle redazioni online, la trasformazione dei propri dati, soprattutto il nome e il cognome, nel corrispondente puntato. M.R anzichè Mario Rossi.
Si tratta di una soluzione palliativa, ma che in generale porta Google ad abbassare il contenuto nella pagina dei risultati e costituisce una prima forma di “contenimento” del danno, qualora non si raggiunga la rimozione o deindicizzazione dell’articolo online.
Computer forensics (noto anche come computer forensic science) è una branca della scienza forense digitale relativa alle prove trovate nei computer e nei supporti di archiviazione digitali. L’obiettivo della informatica forense è esaminare i media digitali in modo forense con l’obiettivo di identificare, conservare, recuperare, analizzare e presentare fatti e opinioni sulle informazioni digitali.
Sebbene sia spesso associato alle indagini su una vasta gamma di reati informatici, può essere utilizzata anche nei procedimenti civili. La disciplina prevede tecniche e principi simili al recupero dei dati, ma con linee guida e pratiche aggiuntive progettate per creare una linea di controllo legale.
Le prove fornite dalle indagini di informatica forense sono generalmente soggette alle stesse linee guida e pratiche di altre prove digitali. È stato utilizzato in numerosi casi di alto profilo e sta diventando ampiamente riconosciuto come affidabile nei sistemi giudiziari statunitensi ed europei.
Computer forensics. Panoramica
All’inizio degli anni ’80 i personal computer sono diventati più accessibili ai consumatori, determinando un loro maggiore utilizzo nelle attività criminali (ad esempio per contribuire a commettere frodi). Allo stesso tempo, sono stati riconosciuti diversi nuovi “crimini informatici” (come il cracking). La disciplina della informatica forense è emersa durante questo periodo come metodo per recuperare e investigare prove digitali da utilizzare in tribunale. Da allora la criminalità informatica è cresciuta e ed è aumentata del 67% da il 2002. Oggi è utilizzato per indagare su una vasta gamma di reati, tra cui pornografia infantile, frode, spionaggio, cyberstalking, omicidio e stupro. La disciplina figura anche nei procedimenti civili come una forma di raccolta di informazioni (ad esempio, frodi finanziarie)
Le tecniche forensi e le conoscenze specialistiche sono utilizzate per spiegare lo stato di un artefatto digitale, come un sistema informatico, un supporto di memorizzazione (ad esempio un disco rigido o un CD-ROM) o un documento elettronico (ad esempio un messaggio di posta elettronica o un’immagine JPEG). L’ambito di un’analisi forense può variare dal semplice recupero di informazioni alla ricostruzione di una serie di eventi. In un libro del 2002, Computer Forensics , gli autori Kruse ed Heiser definiscono la informatica forense come “conservazione, identificazione, estrazione, documentazione e interpretazione dei dati informatici”. Continuano a descrivere la disciplina come “più di un’arte che di una scienza”, indicando che la metodologia forense è supportata da flessibilità e conoscenza approfondita del campo. Tuttavia, mentre diversi metodi possono essere utilizzati per estrarre prove da un determinato computer, le strategie utilizzate dalle forze dell’ordine sono piuttosto rigide e mancano della flessibilità riscontrata nel mondo civile.
Computer forensic nel processo
Le indagini forensi informatiche di solito seguono il processo o le fasi forensi digitali standard che sono acquisizione, esame, analisi e rendicontazione. Le indagini vengono eseguite su dati statici (ad esempio immagini acquisite ) anziché su sistemi “live”. Questo è un cambiamento rispetto alle prime pratiche forensi in cui la mancanza di strumenti specialistici ha portato gli investigatori a lavorare comunemente su dati in tempo reale.
Le Tecniche
Numerose tecniche sono utilizzate durante le indagini di informatica forense e molto è stato scritto sulle molte tecniche utilizzate dalle forze dell’ordine in particolare.
Analisi cross-drive Una tecnica forense che mette in relazione le informazioni trovate su più dischi rigidi. Il processo, ancora oggetto di ricerca, può essere utilizzato per identificare i social network ed eseguire il rilevamento di anomalie. Analisi dal vivo L’esame dei computer all’interno del sistema operativo utilizzando strumenti forensi personalizzati o strumenti di amministratore di sistema esistenti per estrarre prove. La pratica è utile quando si ha a che fare con Crittografia dei file system, ad esempio, in cui è possibile raccogliere le chiavi di crittografia e, in alcuni casi, il volume del disco rigido logico può essere ripreso (noto come acquisizione live) prima che il computer venga spento. File cancellati Una tecnica comune utilizzata in informatica forense è il recupero di file cancellati. I moderni software forensi hanno i propri strumenti per il recupero dei dati cancellati. La maggior parte dei sistemi operativi e dei file system non cancella sempre i dati dei file fisici, consentendo agli investigatori di recuperarli dai settori del disco fisico. La ricostruzione di file comporta la ricerca di intestazioni conosciute all’interno dell’immagine del disco e la ricostruzione di materiali eliminati. Forense stocastica Un metodo che utilizza proprietà stocastiche (modello matematico adatto a studiare l’andamento dei fenomeni che seguono leggi casuali, probabilistiche) del sistema informatico per studiare attività prive di artefatti digitali. Il suo principale utilizzo è indagare sul furto di dati. Steganografia Una delle tecniche utilizzate per nascondere i dati è tramite la steganografia, il processo di nascondere i dati all’interno di un’immagine. Un esempio potrebbe essere quello di nascondere immagini pornografiche di minori o altre informazioni che un determinato criminale non vuole venga scoperto. I professionisti della informatica forense possono contrastare questo aspetto osservando l’hash del file e confrontandolo con l’immagine originale (se disponibile). Mentre l’immagine appare esattamente la stessa, l’hash cambia man mano che i dati cambiano.
Dati volatili
Quando si acquisiscono prove, se la macchina è ancora attiva, qualsiasi informazione memorizzata esclusivamente nella RAM che non viene recuperata prima dello spegnimento potrebbe andare persa. Un’applicazione di “analisi dal vivo” è quella di recuperare i dati RAM (ad esempio, utilizzando lo strumento COFEE di Microsoft , WinDD, WindowsSCOPE ) prima di rimuovere un’esposizione. CaptureGUARD Gateway ignora l’accesso a Windows per i computer bloccati, consentendo l’analisi e l’acquisizione della memoria fisica su un computer bloccato.
La RAM può essere analizzata per il contenuto precedente dopo la perdita di potenza, poiché la carica elettrica immagazzinata nelle celle di memoria impiega tempo a dissiparsi, un effetto sfruttato dall’attacco di avvio a freddo. Il periodo di tempo in cui i dati sono recuperabili viene aumentato dalle basse temperature e dalle tensioni delle celle più elevate. Mantenere una RAM non alimentata al di sotto di -60°C aiuta a preservare i dati residui di un ordine di grandezza, migliorando le possibilità di successo del recupero. Tuttavia, può essere poco pratico farlo durante una visita sul campo.
Alcuni degli strumenti necessari per estrarre dati volatili, tuttavia, richiedono che un computer si trovi in un laboratorio forense, sia per mantenere una catena di prove legittima, sia per facilitare il lavoro sulla macchina. Se necessario, le forze dell’ordine applicano tecniche per spostare un computer desktop attivo e in esecuzione. Questi includono un jiggler del mouse, che sposta rapidamente il mouse con piccoli movimenti e impedisce al computer di andare in standby accidentalmente. Di solito, un gruppo di continuità (UPS) fornisce energia durante il transito.
Tuttavia, uno dei modi più semplici per acquisire i dati è in realtà salvare i dati RAM su disco. Vari file system con funzionalità di journaling come NTFS e ReiserFS mantengono gran parte dei dati RAM sul supporto di archiviazione principale durante il funzionamento e questi file possono essere riassemblati per ricostruire ciò che era in RAM in quel momento.
Leggi di riferimento
In Italia, la legge di riferimento che definisce come utilizzare a livello giuridico i risultati di un’attività di analisi forense in tribunale, è la legge 18 marzo 2008 n. 48, che ha ratificato la Convenzione del Consiglio d’Europa sulla criminalità informatica, stipulata a Budapest il 23 novembre 2001.
La norma prevede:
sanzioni più pesanti per i reati informatici;
norme di contrasto più efficace alla pedopornografia in rete;
sanzioni anche a carico delle società;
possibilità per le forze dell’ordine di chiedere al provider il congelamento dei dati telematici per 6 mesi;
La sicurezza delle informazioni sta diventando sempre più importante, più vicina e più efficace. Microsoft sta seguendo questa tendenza dei consumatori, offrendo una maggiore sicurezza all’interno del suo sistema operativo Windows 10.
Questo articolo descriverà semplicemente le funzionalità di sicurezza in Windows 10 e il nuovo framework di configurazione della sicurezza SECCON, Microsoft BitLocker e una serie di notevoli funzionalità di Windows Defender tra cui SmartScreen, Application Guard, Device Guard, Exploit Guard e Credential Guard. Articoli successivi li vedrà più in dettaglio.
Nuovo framework di configurazione della sicurezza
La caratteristica di sicurezza di Windows 10 più notevole è il nuovo framework di configurazione della sicurezza che Microsoft ha chiamato SECCON (che è un gioco sul quadro DEFCON delle condizioni di prontezza alla difesa del Dipartimento della Difesa degli Stati Uniti).
Come DEFCON, SECCON utilizza cinque livelli di sicurezza, che vanno dalle misure più rigorose al Livello 1 e alle misure di sicurezza regolari al Livello 5. Di seguito è riportato un riepilogo di ciascuno di questi livelli di prontezza al cyberdefense.
Livello 1: stazione di lavoro dell’amministratore: considerato uno dei livelli di workstation di accesso più privilegiati insieme al livello 2, il livello 1 deve affrontare il rischio più elevato di furto di dati, alterazione e interruzione del servizio
Livello 2: DevOps Workstation: destinato a sviluppatori e tester, questo livello è un obiettivo per gli attacchi di furto di credenziali e gli attacchi che cercano l’accesso a sistemi e server con informazioni sensibili di alto valore
Livello 3: Enterprise VIP Security: consigliato per organizzazioni con un team di sicurezza sofisticato o di grandi dimensioni o per utenti di organizzazioni che devono affrontare un rischio di sicurezza unicamente elevato. Le configurazioni di sicurezza per questo livello sono complesse e l’attuazione delle raccomandazioni può richiedere più tempo rispetto ad altri livelli (a volte oltre 90 giorni)
Livello 4: Enterprise High Security: destinato agli utenti con accesso a informazioni riservate. I controlli possono influire sulla compatibilità delle app e spesso dovranno utilizzare un flusso di lavoro durante la configurazione. La maggior parte delle organizzazioni troverà questi consigli accessibili e generalmente implementabili entro 90 giorni
Livello 5: Enterprise Security: la configurazione di minima sicurezza con consigli diretti che possono essere implementati entro 30 giorni
Funzionalità di sicurezza di Windows 10
Un nuovo framework di configurazione della sicurezza è solo l’inizio. Windows 10 offre molte funzionalità di sicurezza migliorate rispetto alle versioni precedenti di Windows e alcune sono nuove.
Microsoft BitLocker
Microsoft BitLocker è un ritorno alle versioni precedenti di Windows. Questa soluzione di crittografia nativa a unità completa è disponibile su Windows Pro e Windows Enterprise. BitLocker di Windows 10 offre una nuova classe di funzionalità di prevenzione delle intrusioni, un miglioramento rispetto alle versioni precedenti.
Nuove funzionalità di Windows Defender
Windows Defender, la soluzione antivirus e anti-malware integrata di Windows, non manca nelle modifiche in Windows 10.
Windows Defender SmartScreen
Questa funzionalità costituisce uno dei molti livelli di anti phishing e difesa dai malware. Utilizzando quello che viene chiamato “blocco a prima vista”, Windows Defender SmartScreen ha la capacità di bloccare siti noti per phishing e contenenti malware.
Windows Defender Application Guard
Questa funzione ha lo scopo di proteggere l’applicazione del browser Web Microsoft Edge da attacchi mirati avanzati. Utilizza la whitelisting per consentire la navigazione gratuita di siti attendibili.
Quando un sito non è attendibile, Windows Defender Application Guard aprirà il sito in un contenitore isolato. Il risultato è simile all’avvio di un eseguibile non attendibile in una sandbox, in cui risorse preziose di sistema e di rete sono protette dall’attività dell’attaccante se il sito risulta essere dannoso.
Windows Defender Device Guard
Questa funzionalità utilizza la whitelisting basata su driver e applicazioni per passare da una modalità in cui i driver e le applicazioni sono attendibili, a meno che non sia bloccato da AV, in una modalità in cui Windows 10 si fida solo di driver e applicazioni affidabili. Questo ha lo scopo di frustrare gli aggressori che si concentrano sull’attacco o l’installazione di nuovi driver di dispositivo e applicazioni.
Questa funzione offre protezione dagli exploit, protezione della rete, regole per la riduzione della superficie di attacco e accesso controllato alle cartelle. Windows Defender Exploit Guard offre inoltre una solida protezione delle applicazioni legacy con protezione del codice arbitraria, blocco dei caratteri non attendibili, immagini a bassa integrità ed esportazione del filtro indirizzi.
Windows Defender Credential Guard
Basandosi sulla sicurezza basata sulla virtualizzazione, questa funzione isola le credenziali e consente l’accesso al software di sistema privilegiati. Ciò consente una protezione avanzata da minacce persistenti e persino una maggiore protezione hardware.
Sandbox di Windows
La maggior parte dei professionisti che si occupano di sicurezza preferisce avere un buon ambiente di test per eseguire software non attendibili e altri programmi se le risorse lo consentono. Microsoft ha risposto a questo desiderio e consente un ambiente isolato su un PC Windows 10, eliminando così la necessità di un costoso ambiente di test (come un server dedicato). Questa funzione è disponibile solo su Windows 10 Pro ed Enterprise Insider con i seguenti requisiti:
Architettura AMD64
Virtualizzazione abilitata
8 GB di RAM consigliata
Almeno due core della CPU
Windows 10 offre alcuni notevoli miglioramenti della sicurezza rispetto alle precedenti implementazioni di Windows. Questi cambiamenti in genere seguono il crescente desiderio dei suoi utenti di avere non solo misure di sicurezza più forti, ma un maggiore controllo da parte degli utenti. Anche gli utenti della versione home vedranno alcune di queste modifiche, tra cui l’utile nuova possibilità di mettere in pausa eventuali aggiornamenti.
Il segnale WiFi è fondamentale per l’utilizzo di tutti i nostri dispositivi ma è estremamente frustrante vedere il segnale che continua a scollegarsi.
Inoltre un segnale WiFi più potente ci permette una velocità di navigazione superiore e un download dei file più semplice e immediato.
In questa guida vedremo i 10 modi più efficienti per potenziare il proprio segnale WiFi, testati sulla base dell’esperienza di anni.
Le istruzioni saranno indicate in maniera estremamente semplice per permettere anche ai neofiti di ottenere un segnale WiFi quanto più potente possibile.
Aggiorna il firmware del tuo router
Il router è il dispositivo che ti permette di collegarti ad internet e il firmware è il software fondamentale per il suo funzionamento.
Molte volte aggiornare il firmware del proprio router può dare un sensibile miglioramento alla velocità della propria connessione.
Fortunatamente i produttori di router si preoccupano di aggiornare costantemente il firmware collegato ai loro prodotti e mettono a disposizione sul loro sito le versioni più recenti.
Quanto semplice o difficile può risultare l’aggiornamento del firmware del tuo router, dipende dal tipo di dispositivo che hai comprato e dal modello. Possiamo dire che la stragrande maggioranza dei router ha un processo di aggiornamento abbastanza semplice.
L’aggiornamento si verifica semplicemente cliccando un tasto apposito sul dispositivo. L’interfaccia di amministrazione esegue tutto il lavoro automaticamente e normalmente una piccola luce segnala il termine dell’operazione.
Il firmware viene caricato immediatamente e i risultati in termini di efficienza del dispositivo sono visibili già nei primi minuti dall’aggiornamento.
Altri modelli, in particolare quelli leggermente datati, richiedono invece di raggiungere il sito web del produttore, scaricare manualmente il file del firmware dalla pagina di supporto e caricarlo manualmente sulla pagina di interfaccia dell’amministrazione.
Anche se quest’ultima opzione può essere abbastanza noiosa, ed è una di quelle cose che continuiamo a rimandare, prendersi 10 minuti per eseguire l’aggiornamento in questo modo è un ottimo metodo per aumentare la velocità e per proteggere il router da eventuali vulnerabilità di sistema.
In linea generale, aldilà dell’aumento delle performance, l’aggiornamento del firmware dovrebbe essere eseguito regolarmente non solo per migliorare la velocità, ma anche per ottenere delle funzioni aggiuntive che possono tornare utili e per rimanere al passo con gli aggiornamenti di sicurezza, che nel caso dei router ricoprono notevole importanza.
Scegli la posizione migliore per il tuo router
Non tutte le stanze e gli spazi sono uguali: la posizione del router può influire notevolmente sulla potenza del segnale e anche sulla capacità di download.
Normalmente l’opzione che appare più logica subito dopo l’installazione è quella di posizionare il router vicino alla finestra, dove riteniamo che possa prendere meglio il segnale, oppure lo confiniamo in un punto della stanza lontano dal passaggio affinché non ci dia fastidio.
In questo modo pensiamo che il segnale possa raggiungere tutta la casa senza particolari problemi. In realtà relegare il router ad un punto lontano molto spesso diminuisce le sue prestazioni. Suggeriamo invece di posizionarlo, come fosse un complemento d’arredo, al centro della propria casa in modo che sia equidistante da tutte le stanze.
I router inoltre hanno bisogno di spazi aperti e lontani da mobili e muri. Cerca inoltre di tenere il router lontano da altri dispositivi elettrici, che mangiano aria e attirano la polvere.
Se il tuo router è dotato di antenne esterne ti suggeriamo di posizionarle in verticale per amplificare la copertura quanto più possibile.
E’ anche utile cercare di posizionarlo leggermente in alto. Normalmente troviamo il router sul pavimento, in un angolo, ma posizionato al di sopra di una libreria, il router migliora sensibilmente la sua capacità di ricevere e restituire le onde magnetiche.
Suggeriamo anche l’utilizzo di alcuni strumenti per visualizzare la copertura della tua rete. Heatmapper per esempio è un ottimo alleato. Esegui dei semplici test in modo da capire quali parti della tua casa sono maggiormente coperti dal segnale.
Stabilisci la tua frequenza
Un altro ottimo passo è quello di accedere all’interfaccia di amministrazione del tuo router e assicurarti che tu abbia configurato la frequenza migliore.
Uno dei trucchi fondamentali in questo caso è di verificare quale sia la tua frequenza: molto probabilmente è 2,4GHz, che è quella di default per la stragrande maggioranza dei router, soprattutto Dual Band.
Ti consigliamo invece di impostarla a 5GHz : non solo perché la quantità di onde in ricezione è maggiore ma anche perché è meno utilizzata del solito e quindi c’è meno sovraccarico.
I 5 GHz offrono non solo una velocità maggiore ma tendenzialmente incontrano meno interferenze rispetto a reti wireless impostate sui vecchi 2,4 per il semplice fatto che avrai meno dispositivi nel tuo quartiere che si appoggiano a questa frequenza.
Un altro trucco importante. La maggior parte dei router dual-band ti permette di utilizzare lo stesso nome della rete su più bande. Controlla l’interfaccia di amministrazione, assicurati di selezionare l’opzione da 5GHz e dai a questa lo stesso nome e la stessa password della rete da 2.4.
In questo modo il dispositivo cercherà automaticamente il miglior segnale disponibile nella posizione in cui si trova.
Evita le interferenze
Uno dei problemi principali sono le interferenze. Ognuno di noi è connesso ad internet attraverso il WiFi e lo stesso palazzo può avere una grandissima quantità di punti di accesso e di router diversi.
Questo significa che i segnali da altre reti wireless entreranno costantemente in conflitto con il tuo, motivo per cui le interferenze saranno certamente all’ordine del giorno.
Anche se non te ne accorgi, il lavoro che la rete fa per evitare le interferenze è elevato, e questo influisce sulla velocità.
Un esempio per capire meglio: se hai provato ad utilizzare un walkie-talkie ti renderai conto che se tante persone stanno utilizzando lo stesso dispositivo sul tuo stesso segnale, comincerai a sentire anche le conversazioni degli altri, oppure la tua conversazione rimarrà attiva ma inizierà ad essere disturbata o ad avere un importante ritorno.
Accade esattamente la stessa cosa quando parliamo di router. Se le reti wireless che si trovano nelle vicinanze stanno scambiando una grande quantità di dati o semplicemente sono tante a livello numerico, è possibile che tu possa avere delle interferenze che rallentano il lavoro del tuo router.
Il problema è che la stragrande maggioranza dei router è settata sulla configurazione automatica, la quale cercherà di trovare in autonomia il canale meno congestionato, ma i router più economici non eseguono al meglio questa operazione, si limitano semplicemente a sintonizzarsi su un canale predefinito e aspettano che sia utilizzabile.
Un’ottima mossa in questo caso è utilizzare il tuo PC Windows per vedere quali canali stanno utilizzando i dispositivi dei tuoi vicini.
Se raggiungi il prompt dei comandi puoi digitare netsh wlan show all e vedrai una lista di tutte le reti wireless e dei canali che vengono utilizzati.
Ad esempio, nella stragrande maggioranza dei casi i canali più congestionati sono 6 e 11. A questo punto possiamo accedere all’interfaccia di amministrazione, raggiungere le impostazioni fondamentali della connessione wireless e provare a selezionare un canale manualmente.
Se individuerai i canali meno utilizzati dai tuoi vicini e li selezionerai manualmente all’interno del tuo router, riuscirai a garantirti una maggiore velocità e minor interferenze sul tuo segnale.
Tieni conto che, ovviamente, questo parametro può cambiare e potresti dover aggiornare o ripetere l’operazione circa una volta a settimana. Ma il gioco vale la candela, in quanto le prestazioni in caso di rete poco congestionata sono veramente superiori alla media.
Dai una priorità alle informazioni
Potresti pensare che all’interno di una rete wireless tutte le informazioni che vengono scambiate abbiano più o meno la stessa priorità.
Non è affatto vero. Esiste un servizio per il controllo all’interno dell’interfaccia di tutti i router che ti permette di stabilire le priorità dei dati che vengono scambiati.
Per esempio potresti dare priorità al download dei video piuttosto che alla riproduzione della musica, oppure assegnare maggiore importanza alle videochiamate piuttosto che ai download da internet.
Addirittura alcune impostazioni aggiuntive ti permettono di dare una priorità a diverse applicazioni in momenti differenti della giornata.
Questa opzione si trova nelle regolazioni avanzate del tuo router. Prenditi qualche minuto per stabilire le maggiori priorità a seconda delle tue esigenze e noterai immediatamente un netto miglioramento delle prestazioni.
Aggiorna il tuo Hardware
Purtroppo i router sono dei dispositivi che finché non si rompono completamente non vengono sostituiti. Ma se il router è stato comprato diversi anni fa non puoi aspettarti delle prestazioni di alto livello. Conosciamo diverse persone che hanno ancora il router con lo standard 802.11n.
Si tratta della preistoria dei router e in questi casi c’è poco da fare. Il wireless non può essere spinto più di tanto e ogni possibile soluzione arriverà ad un massimo di 54mbps.
Acquistare un router nuovo può essere un ottimo investimento per il futuro, soprattutto se lo pensi in termini di tempo che ti farà risparmiare nei prossimi mesi.
Nella scelta di un router nuovo, e nell’aggiornamento di un dispositivo del genere, non tenere solamente conto della velocità a cui sono in grado di viaggiare, ma cerca di assicurarti che possono eseguire tutta la serie di ottimizzazioni che ti abbiamo indicato.
In altre parole, non è solamente una questione di potenza ma anche di capacità di reagire ai miglioramenti che vengono apportati dall’utente.
Sostituisci l’antenna
Alcuni router vengono venduti senza antenna, altri sono dotati delle classiche due antenne regolabili. Ma ci sono diversi router che permettono di comprare un antenna aggiuntiva che può andare a potenziare le prestazioni finali.
In diversi casi potrai scegliere fra le antenne omnidirezionali, in grado di recepire le onde da qualsiasi direzione desiderata o quelle direzionali che si concentrano su una specifica direzione.
Tendenzialmente la migliore scelta è quella per l’antenna direzionale, puntata per esempio dove si trova la tua scrivania di lavoro o i dispositivi più importanti.
Utilizza un estensore di segnale Wireless
Uno dei problemi principali e ovviamente la distanza. Per quanto potente possa essere il tuo router e per quanto possa essere ottimizzato, può capitare che la tua casa sia troppo grande per gestire tutto il segnale, e le performance in corrispondenza dei limiti del segnale non possono che precipitare.
In questo caso puoi affidarti a degli estensori di segnale. In linea teorica lavorano esattamente come dei router ma hanno un comportamento leggermente differente. In realtà non generano segnale autonomamente ma prendono le onde già presenti e le ri-trasmettono per aumentare la portata complessiva della connessione.
Nel momento in cui il segnale del tuo router originale inizia ad avere dei problemi, questi diffusori si occupano di trasportarlo più a lungo per cercare di non avere un improvviso calo delle prestazioni.
Poi quindi utilizzare queste estensioni sia per connettere i tuoi dispositivi a una distanza superiore rispetto al router originale, sia per cercare di riequilibrare la diffusione delle onde magnetiche nei punti più deboli.
Possiamo dire che la qualità di un segnale ritrasmesso in questa maniera non sarà esattamente identica all’originale, ma è meglio di niente.
In questo caso evita di fare una spesa inutile: non comprare un estensore di segnale da 802.11n se per esempio il router è da 802.11ac
Ti ritroveresti con dispositivi inutilizzabili. Per questo motivo quanto acquisti un estensore di segnale cerca sempre di selezionare un prodotto compatibile con il router principale.
Alcuni negozi ti consentono anche di fare una prova per evitare un acquisto sbagliato.
Utilizza un sistema WiFi mesh
Gli estensori del segnale di cui abbiamo parlato possono essere utili per aumentare la connettività nelle zone morte e normalmente ti garantiscono la metà della potenza del router principale.
Il problema è che hanno una gestione separata rispetto al router, e potresti essere costretto a inserire due nomi differenti della rete.
Anche tutti gli aggiornamenti dovrebbero essere moltiplicati per due, quindi a livello di gestione si tratta di una soluzione che può provocare qualche noia.
Se invece vuoi un ampliare la tua connettività ovunque all’interno della tua casa e vuoi gestire tutto questo facilmente, ad esempio da un’applicazione per lo smartphone, puoi prendere in considerazione il sistema mesh WiFi.
Il sistema mesh WiFi non si limita a riprodurre il segnale del tuo router ma lo sostituisce mantenendo intatta la forza.
È organizzato in modo tale che ci sia un router principale, e uno o più nodi o satelliti che vengono distribuiti nella tua casa. Questi sistemi sono dotati di una meccanismo di installazione molto intelligente che ti permette di calcolare il posto migliore per posizionare ogni singolo nodo.
Il risultato è una vera e propria rete wireless che utilizza una singola interfaccia di amministrazione, piuttosto user-friendly e comunque utilizzabile anche da smartphone, con poche interferenze e delle performance certamente migliori rispetto a dei semplici amplificatori di segnale.
Molti di questi sistemi sono anche dotati di un aggiornamento automatico del firmware, il che ti fa risparmiare tempo, fatica e ti garantisce le migliori performance disponibili in quel momento.
Il punto debole è che questi sistemi non sono esattamente economici. Specialmente se hai una casa grande avrai bisogno di diversi nodi e dovrai affrontare una spesa da tenere in considerazione.
Tuttavia se per te una connessione wireless è fondamentale, per la tua vita privata ma soprattutto per il tuo lavoro, potrebbe essere un investimento intelligente e un’alternativa valida per il tuo caso.
Utilizza un sistema operativo alternativo
Se vuoi veramente tirare fuori il meglio dal tuo router, e hai delle competenze di programmazione sufficienti, potresti utilizzare un firmware Open Source ha chiamato DD-WRT.
Il DD-WRT ti permette di personalizzare le impostazioni del router come nessuna altra opzione, mette a disposizione una serie di informazioni e di personalizzazioni importanti, fino alla creazione di una rete privata virtuale (VPN) e impostazioni di sicurezza avanzate.
Puoi installare questo sistema operativo in ogni tuo router dal momento che la stragrande maggioranza delle marche come Linksys, Netgear TrendNET supportano l’installazione di questo firmware senza alcun problema.
"Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi.
Cliccando su “Accetta tutti”, acconsenti all'uso di tutti i cookie. Cliccando su “Rifiuta”, continui la navigazione senza i cookie ad eccezione di quelli tecnici. Per maggiori informazioni o per personalizzare le tue preferenze, clicca su “Gestisci preferenze”."
Questo sito web utilizza i cookie.
I siti web utilizzano i cookie per migliorare le funzionalità e personalizzare la tua esperienza. Puoi gestire le tue preferenze, ma tieni presente che bloccare alcuni tipi di cookie potrebbe avere un impatto sulle prestazioni del sito e sui servizi offerti.
Essential cookies enable basic functions and are necessary for the proper function of the website.
Name
Description
Duration
Cookie Preferences
This cookie is used to store the user's cookie consent preferences.
30 days
These cookies are used for managing login functionality on this website.
Name
Description
Duration
wordpress_test_cookie
Used to determine if cookies are enabled.
Session
wordpress_sec
Used to track the user across multiple sessions.
15 days
wordpress_logged_in
Used to store logged-in users.
Persistent
Statistics cookies collect information anonymously. This information helps us understand how visitors use our website.
Google Analytics is a powerful tool that tracks and analyzes website traffic for informed marketing decisions.
Used to monitor number of Google Analytics server requests when using Google Tag Manager
1 minute
_ga_
ID used to identify users
2 years
_gid
ID used to identify users for 24 hours after last activity
24 hours
__utmx
Used to determine whether a user is included in an A / B or Multivariate test.
18 months
_ga
ID used to identify users
2 years
_gali
Used by Google Analytics to determine which links on a page are being clicked
30 seconds
__utmc
Used only with old Urchin versions of Google Analytics and not with GA.js. Was used to distinguish between new sessions and visits at the end of a session.
End of session (browser)
__utmz
Contains information about the traffic source or campaign that directed user to the website. The cookie is set when the GA.js javascript is loaded and updated when data is sent to the Google Anaytics server
6 months after last activity
__utmv
Contains custom information set by the web developer via the _setCustomVar method in Google Analytics. This cookie is updated every time new data is sent to the Google Analytics server.
2 years after last activity
__utma
ID used to identify users and sessions
2 years after last activity
__utmt
Used to monitor number of Google Analytics server requests
10 minutes
__utmb
Used to distinguish new sessions and visits. This cookie is set when the GA.js javascript library is loaded and there is no existing __utmb cookie. The cookie is updated every time data is sent to the Google Analytics server.
30 minutes after last activity
_gac_
Contains information related to marketing campaigns of the user. These are shared with Google AdWords / Google Ads when the Google Ads and Google Analytics accounts are linked together.
90 days
Marketing cookies are used to follow visitors to websites. The intention is to show ads that are relevant and engaging to the individual user.
X Pixel enables businesses to track user interactions and optimize ad performance on the X platform effectively.
Our Website uses X buttons to allow our visitors to follow our promotional X feeds, and sometimes embed feeds on our Website.
2 years
guest_id
This cookie is set by X to identify and track the website visitor. Registers if a users is signed in the X platform and collects information about ad preferences.
2 years
personalization_id
Unique value with which users can be identified by X. Collected information is used to be personalize X services, including X trends, stories, ads and suggestions.
2 years
Per maggiori informazioni, consulta la nostra https://www.alground.com/site/privacy-e-cookie/