No. Nonostante i titoli di qualche giornale italiano possano far pensare al contrario, Microsoft non ha rilevato Dell. Quello che è successo, anche se non meno interessante, è diverso e si potrebbe riassumere con “Microsoft ha aiutato Dell a uscire da Wall Street”.

La società di Ballmer, infatti, ha partecipato attivamente alla trasformazione di Dell da “Public Company” (società quotata) a “Private Company” (società non quotata). Un’operazione che, semplificando, prevede di riacquistare tutte le azioni in circolazione. La partecipazione di Microsoft, però, è minima: 2 miliardi di dollari su un totale di 24,4. In pratica una quota inferiore al 10% che non può certo far urlare all’acquisizione. Il motivo dell’operazione, secondo gli analisti e stando anche alle dichiarazioni pubbliche del fondatore Michael Dell, sta nell’esigenza di seguire un piano di rilancio dell’azienda su lungo termine, che mal si sposa con la frenetica ricerca di risultati a brevissimo termine imposta dal mercato azionario e con l’ansia generata dalla pubblicazione dei risultati trimestrali a cui sono obbligate le società quotate. Fin qui, nulla di sconvolgente. Dell è il terzo produttore di Pc al mondo ed è normale che risenta del calo di vendite nel settore. L’elemento curioso è l’intervento di Microsoft. L’idea che il suo intervento abbia il senso del semplice business (mi compro un pezzo di Dell) è semplicistico. Come ho già avuto occasione di rilevare in un altro post, mischiare il ruolo di sviluppatore di sistemi operativi e di produttore rischia di portare solo grane. Piuttosto, con questa operazione Microsoft ha confermato l’idea che molti si sono fatti in questi ultimi anni: il mercato dei Pc sta vivendo uno stallo spaventoso e tutto l’ecosistema che ci gira intorno rischia il patatrac.

La colpa non è solo di smartphone e tablet, che molti accusano di aver eroso il ruolo del computer. Quello a cui stiamo assistendo, più probabilmente, è un fenomeno di stabilizzazione (rallentamento) dei consumi che mette in discussione alcune certezze nel mondo dell’informatica. Fino a qualche tempo fa, la cosiddetta “legge di Moore” (secondo la quale le prestazioni dei processori raddoppiano ogni 18 mesi) veniva naturalmente estesa alla necessità che i consumatori avevano di utilizzare quei processori. Parafrasando, nel mercato Pc, chi voleva rimanere aggiornato era costretto a cambiare il computer ogni 2 anni. Una regola che è rimasta valida fino a poco tempo fa, ma che adesso sembra aver perso di efficacia. Lo dico per esperienza personale: il mio computer desktop sta per raggiungere i 3 anni di vita ed è la prima volta che succede. Nel mio lavoro mi trovo a utilizzare software particolarmente esosi (fotoritocco, montaggio video, grafica 3D) che in passato obbligavano invariabilmente all’upgrade nel giro, appunto, di 18-24 mesi. Ora il mio Pc (guarda caso, un Dell) sembra tenere botta senza battere ciglio anche quando lo spremo con il rendering di un documentario in alta definizione. Insomma, chi ha acquistato un computer dal 2010  in poi, ha la sensazione di essere a posto così. Senza contare che anche il settore videogiochi, che in passato trainava all’aggiornamento hardware imponendo risoluzioni grafiche più alte ed effetti sempre più complessi, ha perso molto della sua efficacia in questo senso con il boom delle consolle di gioco.

Crollo dei consumi? Macché. Per il consumatore, da un punto di vista economico, il saldo resta uguale. Rimanendo all’esperienza personale e professionale, mi sono semplicemente ritrovato invaso da altri dispositivi (Mac, PC portatile, iPad, iPhone) che hanno portato con sé una gioiosa proliferazione di cavi sulla scrivania e mi hanno costretto a sviluppare la capacità di gestire la loro alimentazione con una pianificazione degna di una piccola industria manifatturiera. Il Pc, però, resta lo stesso da tre anni. Se me ne sono accorto io, figuriamoci dalle parti di Microsoft e Dell. I produttori di Pc si trovano di fronte a un deserto da attraversare, che potrà essere superato quando la legge di Moore (sempre valida) tornerà a dispiegare i suoi effetti anche nei consumi. Succederà, prima o poi. Magari con il controllo vocale del computer (uno sfizio che impegnerebbe buona parte delle risorse Pc solo per capire quello che gli diciamo) o qualche altra nuova diavoleria che darà nuova spinta alla richiesta di potenza di calcolo. Nel frattempo, i giganti del settore si danno una mano tra di loro aspettando tempi migliori. Magari uscendo per un po’ da Wall Street

Articolo Precedente

Il rapporto dell’hacker: la video-sicurezza che non convince

next
Articolo Successivo

Watson, il super-computer Ibm che comprende il linguaggio umano

next