''

No me gusta

Hace rato que se sabe que Facebook (como tantas otras aplicaciones y plataformas) captura toneladas de información que generan sus usuarios (identidad, número de celular, amigos, likes, ubicación, etc.), por más que son muchos los que recién ahora se están desayunando con esta situación. Sin embargo, la cosa se puso fea para la red social cuando, a fines de la semana pasada, una investigación conjunta de los diarios The New York Times (de EE.UU.) y The Observer (del Reino Unido) les permitió afirmar que la consultora en materia política Cambridge Analytica hizo un uso inapropiado de datos de Facebook a los cuales tuvo acceso en 2014. Agravado con el hecho de que esos datos habrían sido utilizados durante la campaña del actual presidente de los EE.UU. para inclinar voluntades a la hora de votar.

Para entender el porqué del uso de la palabra “inapropiados” hay que repasar brevemente el manejo de los datos de sus usuarios hecho por Facebook a lo largo de los últimos años. Durante varios años, la empresa, ávida de lograr una exitosa salida a bolsa en 2012, hizo de todo para rentabilizar los datos que obtenía del uso de la red que hacían sus usuarios. Entre estas “libertades”, estaba la posibilidad de acceder no sólo a los datos de aquellos usuarios que expresamente asentían ofrecerlos, sino también a los de sus contactos (o amigos en términos facebookeros), aun cuando estos últimos no eran conscientes de esta situación. Esta posibilidad dejó de existir en 2014, cuando la empresa modificó sus políticas de privacidad. Sin embargo, el daño ya estaba hecho.

A través de una aplicación conectada a Facebook, indirectamente Cambridge Analytica obtuvo no sólo la información de 270 mil personas que había aceptado voluntariamente cederla, sino que, al mismo tiempo, permitieron el acceso a datos de unos 50 millones de usuarios más. Si bien en el momento esto era técnicamente legal (estaba crípticamente explicitado en los términos y condiciones), es claro que Facebook proporcionó información de usuarios que no habían autorizado a la aplicación en cuestión, defraudando la confianza que éstos habían depositado en la red social.

La cosa empeoró porque, aún luego de los cambios de las políticas de privacidad en 2014, Cambridge Analytica mantuvo esta base de datos y la utilizó posteriormente, presumiblemente para la campaña electoral que llevó a Trump a la presidencia. Es conveniente recordar que 50 M de personas, todos estadounidenses, equivalen aproximadamente al 21% de aquellos en condiciones de votar.

Si bien Facebook eliminó esta “funcionalidad” en 2014, la empresa no aplicó auditorías a desarrolladores externos para garantizar el buen uso de los datos accedidos (esto según declaró el ex jefe de operaciones de la red social) así como tampoco su eliminación luego del cambio de sus políticas. O sea que estas últimas se sustentaron en la buena fe y no en medidas técnicas concretas, lo que da lugar a un sistema a todas luces vulnerable.

Hasta aquí los hechos resumidos, tal cual fueron presentados en las investigaciones. Lo interesante ahora son las implicancias que este escándalo, por lejos el mayor en la historia de Facebook, pueda tener. Por un lado, están los efectos inmediatos. La caída de la acción en la bolsa, un tema no menor ya que fue del 9%, borrando casi US$ 50 mil millones (lo que equivale a casi el total de las reservas de divisas argentinas). Más grave aún es el fuerte daño que le hace a su imagen y a la confianza que sus usuarios tienen ahora en la red social (lo cual ha valido que se inicie una campaña para borrarse de Facebook, bajo el hashtag #deletefacebook). Conviene remarcar que apenas un 3% de la valuación de Facebook corresponde a activos físicos. O sea que su valor es básicamente intangible, y aquí es donde mayormente impacta este escándalo.

Pero también está la reacción de los gobiernos. Por un lado, el Parlamento británico convocó al CEO de Facebook, Mark Zuckerberg, a que comparezca antes sus miembros para dar explicaciones. En EE.UU. la cosa se puede poner peor. Desde el Congreso han pedido no sólo que Zuckerberg testifique sino también tienen intenciones de convocar a Google y a Twitter para que expliquen el manejo que hacen de los datos de sus usuarios. Esto no sólo podría acarrear fuertes multas si se comprueban violaciones a los términos que rigen las relaciones entre estas empresas y sus usuarios, sino que es previsible que se produzca un endurecimiento de las regulaciones que los afecten. Algo que los europeos han comenzado a hacer (y que probablemente profundicen), pero que para los estadounidenses podría marcar el principio del fin de una suerte de laissez faire que los caracterizó en esta materia.

Es un hecho que los gigantes de Internet, así como los operadores de telecomunicaciones, colectan inmensas cantidades de información sobre cada uno de nosotros. Negar esto es ingenuo. No obstante, este escándalo pone en evidencia la ligereza con que algunos manejan uno de los principales activos del siglo XXI, los datos. Es de esperar que este escándalo sea el comienzo de una mayor concientización sobre los riesgos de un mal manejo de los datos en la sociedad digital, a partir de un caso que permitió comprobar aquello de que cuando un producto es gratis, el usuario es el producto.

Sin fronteras

Mucha gente se entusiasmó esta semana al conocerse la noticia que, durante la reunión de la CITEL (Comisión Interamericana de Telecomunicaciones), dependiente de la OEA (Organización de Estados Americanos), la mayoría de los Estados miembros se comprometió a “impulsar medidas que permitan una mayor transparencia, asequibilidad y eliminación de los cargos adicionales al usuario final de los servicios de itinerancia móvil internacional (roaming), dando particular atención a las realidades y necesidades en las zonas de frontera”, según el documento aprobado en Buenos Aires durante la Séptima Reunión Ordinaria de la Asamblea que tuvo lugar entre el 13-15 marzo últimos.

Sin ánimo de ser aguafiestas, conviene destacar que esta no es una decisión tomada sino una recomendación a los reguladores, quienes deberán ahora consensuar con los operadores móviles de cada país cómo llevar adelante esta iniciativa.

Existe el antecedente reciente de la eliminación, el año pasado, del roaming en Europa, el cual no es total sino sólo para líneas con abono. En el caso de las prepagas, esto queda a criterio de cada operador. Pero aún en este caso, pasaron varios años desde que se comenzó a analizar la medida hasta que finalmente fue una realidad. Esto se debe a que en el proceso de roaming intervienen tres actores: el operador de origen del usuario itinerante, el operador del país de destino que cursa las comunicaciones y el operador de larga distancia que conecta a ambos. No obstante, por la configuración del mercado americano, el proceso podría ser más simple en varios casos. Esto se debe a que existen dos gigantes regionales: América Móvil (Claro) y Telefónica (Movistar), quienes operan en la mayoría de los países y que son además operadores de larga distancia. No obstante, la situación no sería tan sencilla para otros operadores, como es el caso de Telecom (Personal), que sólo tiene participación en Argentina y Paraguay, con lo cual tiene más negociaciones por delante. No obstante, también queda un factor importante a resolver: el tratamiento fiscal para evitar doble imposición (en el país de origen de la línea y el país donde se realizan las comunicaciones).

Hasta el momento, el roaming es un servicio utilizado mayormente por los clientes de empresas, quienes pueden justificar más fácilmente los altos costos del servicio en comparación con sus costos locales. Pero con el creciente uso de los datos desde el celular, los viajeros particulares se acostumbraron a usar sus equipos en el exterior, conectándose vía WiFi desde hoteles, aeropuertos, bares y otros lugares públicos que ofrecen esta conectividad. Desde allí utilizan aplicaciones como Whatsapp, Skype, Facebook y otras, a las que más recientemente se le agregó la funcionalidad de VoWiFi (Voice over WiFi) que permite también hacer y recibir llamadas como si se estuviera en la red móvil del país de origen.

Hay quienes creen que, considerando los tiempos que demandarían la implementación de esta medida, la cosa podría estar resuelta con anticipación directamente por parte de los operadores. En Argentina, los operadores ofrecen ya planes que incluyen alguna forma de roaming en América. Claro es el más agresivo en este aspecto, con planes que agregan esta capacidad en todos sus abonos que cuentan con al menos 4GB por mes, arrancando en $ 530 mensuales (unos US$ 26). Personal tiene 10GB incluidos en países limítrofes y los EE.UU. pero únicamente en su plan de 10GB locales de $ 990 de costo (casi US$ 50). Movistar sólo ofrece paquetes de roaming adicionales, no incluyéndolos en ninguno de sus abonos.

Lo cierto es que la eliminación del roaming dispara su uso. En Europa, en menos de un año de vigencia, la cantidad de usuarios se duplicó. En el caso de Argentina, desde Claro informaron que este último verano fueron 600.000 clientes quienes hicieron uso de esta funcionalidad, mayormente en países limítrofes y en los EE.UU.

En definitiva, la medida es sin dudas bienvenida, pero al ritmo en que van las cosas y esperando una competencia más feroz en la medida en que avance la convergencia, es probable que para cuando se oficialice en todo el continente, los operadores privados se hayan adelantado. Ojalá así sea.

Tuits selectos

Alcanzando las metas

Esta semana, en el marco de la Asamblea de la CITEL, el Ministro de Modernización volvió a explicitar los objetivos del gobierno para el 2020 en materia de acceso a Internet en Argentina. Uno es el agregado de 2 millones de accesos. El otro, llevar la velocidad promedio a 20 Mbps. Se trata de objetivos que pueden sonar muy ambiciosos pero que son cumplibles.

Actualmente, el total de accesos a Internet es de casi 8 millones (incluyendo hogares y organizaciones), por lo que un crecimiento en 2 millones de aquí al 2020 equivale a un 25%, o una media de 5,7% anual. Si se observa el crecimiento de los últimos años (ver gráfico), salvo en el 2015, siempre estuvo en ese valor o superiores, habiendo sido del 10% en 2016 y 9% en 2017. Si bien es cierto que en tanto crece la penetración se hace más difícil mantener la tasa de crecimiento, con las medidas adecuadas un 5,7% anual no es descabellado.

De estos 2 millones de nuevos accesos, el ministro sostuvo que 500.000 accesos serán provistos por el Estado, vía Servicio Universal. Por lo tanto, el 1,5 millón restante que surgirá de los prestadores privados equivale a un crecimiento del 18,75% o un 4,4% anual. No debería ser un desafío.

Donde las metas pueden ser a priori más ambiciosas es en llevar la velocidad promedio a 20 Mbps. Según las cifras oficiales publicadas por el ENACOM, un 92% de los accesos actuales se encuentran por debajo de esta marca. A su favor se puede argumentar que actualmente y en los próximos años habrá un importante crecimiento de los accesos de fibra óptica. Los mismos hoy se acercan a los 400.000 accesos, habiendo crecido un 164% en el 2017. Y teniendo en cuenta el ritmo de despliegue no sólo de Telefónica y Claro sino también en el interior de la mano de PyME y cooperativas, (a los que previsiblemente se sume también Telecom, especialmente en las zonas no cubiertas por la red de Fibertel) en 4 años deberían representar varios millones. El crecimiento de la fibra combinado con los aumentos de velocidad de las redes de cable (HFC) serán claves para alcanzar la meta propuesta.

Por supuesto, también otros factores colaborarán para que las metas propuestas puedan alcanzarse. Los mayores tendidos de fibra, no ya al hogar, pero como backbone, sin dudas ayudarán, llevando o mejorando el acceso en localidades poco pobladas del interior del país. Asimismo, el crecimiento de las propuestas convergentes (basadas en redes fijas de alta capacidad) colaborarán, bajando los precios allí donde haya competencia y mejorando la calidad de la conectividad (una red poco capaz no podrá transportar señales de TV).

Pero además de esto, será importante el aporte de tecnologías inalámbricas para llevar conectividad a zonas de poca densidad poblacional y/o alejadas de los grandes tendidos. Por un lado, las tecnologías satelitales, especialmente (aunque no excluyentemente) aquellas basadas en la banda Ka y tecnología HTS (High Throughput Satellite) que puede ofrecer anchos de banda más acordes a la media buscada. Aquí el problema es que, con un mercado que estuvo bastante cerrado durante años, no hay en la actualidad muchos satélites con esta tecnología apuntando sus haces al territorio argentino. No obstante, ya hay proyectos de conectividad con los satélites tradicionales, cuyo precio está bajando. Por otra parte, también las redes 4G pueden jugar un rol importante (más allá de ofrecer conectividad móvil). Esto se debe a que las mismas deberán llegar a localidades de baja densidad población, lo que dejará capacidad disponible para accesos no ya móviles sino también fijos, pero con velocidades similares a los cableados.

En definitiva, las metas son cumplibles. Sólo será cuestión de ayudar con las políticas correctas.

Avance de fibra

Por lo que puede observarse de los últimos movimientos en el mercado, Argentina podría estar en los albores de una auténtica explosión de la fibra óptica que tanta falta le hace.

Algunos números: Si bien las cifras que publica el ENACOM al tercer trimestre de 2017 indican que había 193 mil accesos de fibra óptica en todo el país, sólo en el balance de Telefónica se declara la misma cantidad a esa fecha, dejando de lado entonces los accesos de Claro (en el Gran Buenos Aires, Mendoza y Salta), Iplan (con una agresiva oferta en CABA), DirecTV (en el Gran Buenos Aires, Córdoba y Godoy Cruz), Telecom (en área no especificada) y otros proveedores en distintos puntos del país. Evidentemente, las cifras oficiales están “desinfladas”.

Actualmente, los accesos de fibra óptica orillan los 400 mil abonados, registrando un importante avance en cobertura (hogares pasados) y adopción (abonados). Y más allá del crecimiento natural, el mismo se verá potenciado por una serie de medidas vinculadas a la compartición de infraestructura que no sólo abaratarán su despliegue sino también lo acelerarán.

Una es el decreto 1060/2017 de la Secretaría de Tecnologías de la Información y las Comunicaciones (SeTIC) que crea la figura de Operador Independiente de Infraestructura Pasiva. El mismo instruye a los distintos ministerios a que toda obra de infraestructura incluya el despliegue de ductos por los cuales se podrán pasar (o “soplar” en la jerga) cables de fibra óptica. Esto alcanza a las obras viales, tendidos eléctricos, de gas, etc. Asimismo, actualmente se está elaborando un pliego de licitación por parte de Ferrocarriles Argentinos para hacer tendidos de fibra óptica en sus trazas, tanto urbanas como de larga distancia. Otro caso es el de la Ciudad de Buenos Aires, la cual desde hace unos años viene desplegando ductos soterrados para luego alquilarlos a operadores que “soplen” fibra a través de éstos (si bien todavía no se han destacado en su comercialización).

Todas estas medidas de compartición de infraestructura reducen sensiblemente los costos de despliegue (se estima que la obra civil representa alrededor del 90% del costo del despliegue de fibra). De esta forma, se hace mucho más eficiente desde el punto de vista económico, al tiempo que se reducen los tiempos de puesta en marcha.

Combinando las necesidades de actualización de las redes fruto de la convergencia (especialmente los pares de cobre hoy utilizados para accesos ADSL) con las facilidades que se están poniendo a disposición para hacerlo, se está creando un escenario que debería potenciar notablemente la velocidad de crecimiento de los accesos de fibra. Se va a poner interesante.

Tuits selectos

  • El consumo promedio de datos móviles en Finlandia es de 26 GB mensuales, influido por los 37 GB de la banda ancha móvil (con capacidades comparables a la banda ancha fija) telecompaper.com/news/finnish-a…
  • En una movida defensiva, Intel estaría evaluando adquirir a Broadcom y disolver la amenaza de su fusión con Qualcomm telecompaper.com/news/intel-con…
  • Cada vez más cerca de Robocop: la policía de Beijing comenzó a probar lentes que proveen reconocimiento facial y de placas de automóviles. businessinsider.com/china-police-u…
  • Una de cal y otra de arena. Según el balance de @TelefonicaComAr ya tiene 250.000 abonados a Internet por fibra óptica, creciendo un 600% en un año. Pero en ese período sus suscriptores totales de banda ancha cayeron un 10%
  • Argumentando razones de seguridad nacional, @realDonaldTrump decretó la prohibición de la venta de @Qualcomm a @Broadcom. Y sanseacabó whitehouse.gov/presidential-a…
  • El gobierno quiere llevar el espectro disponible a 1 GHz, facilitar el uso de infraestructura pasiva y desarrollar una política satelital. Volvió a mencionar la “ley corta”. Pero no fijó plazos iprofesional.com/notas/264845-i…
  • La visión futurista del transporte urbano de Elon Musk lo hizo acreedor del gaste de las redes sociales. Algunos se ceban en su rol de visionarios… theregister.co.uk/2018/03/12/elo… Acá el video vimeo.com/259707751
  • Anuncian 2 haces más en banda K en Argentina sobre las provincias de Mendoza, Neuquén y San Juan que permitirán conectar áreas rurales o poco pobladas. Sería para la 2° mitad del 2018 convergencialatina.com/Nota-Desarroll…
  • Trump impondría aranceles a la importación de productos de telecomunicaciones y tecnología chinos. Represalia por las exigencias para operación de empresas de USA en ese país y temas de propiedad intelectual. Se acaban los viajes de compras a Miami? uk.reuters.com/article/uk-usa…
  • En poco más de un año, Flow sumó casi 1 millón de usuarios, equivalente a un 29% de los clientes de Cablevisión y el 50% de clientes del combo con Fibertel. Un nivel de adopción que marca los cambios de hábitos en el consumo de video
  • El decreto para reglamentar el pago de IVA a los servicios digitales parece un poco ingenuo en el caso en que sea el consumidor final quien deba ingresar la percepción cronista.com/economiapoliti…
  • Francia lleva a Apple y Google a la corte por sus prácticas comerciales consideradas abusivas en sus tiendas de aplicaciones. Le cuestionan:
    – imponer precios
    – utilizar sus datos
    – modificar unilateralmente los contratos
    Va a estar lindo bloomberg.com/news/articles/…
  • Google se suma a Facebook en la prohibición de publicidad de criptomonedas y contenido relacionado (ICO, exchanges, wallets y asesoría) gizmodo.com/google-bans-cr…
  • El Huawei Mate 10 Lite (4 cámaras y 5,9″) se agotó en los dos primeros días posteriores a su lanzamiento. La oferta inicial fue muy agresiva y garpó

¿Cuándo llega el 5G?

Con la repercusión mediática que tuvo el MWC 2018, donde 5G fue uno de los temas dominantes, en los últimos días en Argentina esta pregunta se realizó insistentemente. Se pueden aventurar fechas: 2020 dicen algunos, 2022 otros, no sabe/no contesta la mayoría. Es que la llegada de 5G implica no sólo un formidable esfuerzo en materia de infraestructura, sino que también significará un cambio profundo de modelos de uso, tanto para la oferta como para la demanda de estos servicios.

Desde el punto de vista de infraestructura, las demandas no son menores. Y menos en un país con la extensión de Argentina (la 8° a nivel mundial), donde todavía ni el 3G ni el 4G llegaron a todos los rincones. Partiendo de lo más básico que es el espectro, todavía no hay definiciones. No sólo a nivel local, sino también internacional. Se sabe que harán falta frecuencias altas, pero es algo que no está aún armonizado, por lo que los países que están avanzando rápidamente en el tema están definiéndolas por su cuenta. Por ejemplo, EE.UU. ya está trabajando en 3.5, 24 y 28 GHz. Acá el tema es estudiado, aunque aún no hay definiciones. Y hasta tanto esto no ocurra, no habrá asignaciones (sin importar la metodología a utilizar).

Las frecuencias altas son las que permitirán los grandes anchos de banda que la 5G promete, hablándose de 1Gbps o más. Pero de nada sirve tener 1 Gbps en la radio (en el aire) si al llegar a la antena se produce un cuello de botella al ingresar a la red cableada. Por eso es importante, sino fundamental, una fuerte penetración y capilaridad de la fibra óptica, que hoy araña el 5% del total. Queda en claro que hay mucho camino por recorrer todavía en esta materia.

Pero más allá de la infraestructura, condición sine qua non, hay algo igual de importante, aunque mucho menos mencionado, y es la disponibilidad de nuevos dispositivos (no ya smartphones) y, fundamental, el surgimiento de nuevos modelos de uso de éstos. Lo que hay que entender es que en 5G no se trata tanto de usar smartphones a mayor velocidad sino principalmente de poder conectar un número de dispositivos exponencialmente mayor al de los smartphones actuales, cada uno con requerimientos particulares (ancho de banda, latencia, consumo energético, etc.). Básicamente, es la plataforma para la Internet de las cosas (IoT). Esta propiciará la multiplicación de sensores, maquinaria, electrodomésticos, vehículos de todo tipo (terrestres y de los otros), postes de alumbrado, tachos de basura y todo lo que uno imagine que se pueda conectar. Esto requiere también de ejercicios de creatividad para dar con nuevos modelos de uso y de su adopción por individuos, empresas y Estados.

No obstante, es importante destacar que por lo observado en el MWC 2018, la industria móvil ha comenzado a recorrer este camino, presentando prototipos de usos de la tecnología que permiten vislumbrar una verdadera revolución en los años por venir, tanto en el hogar como en la empresa y la ciudad. Algo que en ediciones anteriores no resultaba tan evidente. El ritmo entonces estará marcado por la capacidad de la demanda de aprehender el potencial de este nuevo escenario. Hasta que esto no ocurra, 5G será tema de conversación en la industria, quizás también en los medios, pero estará lejos de ser una realidad cotidiana.

Los contenidos, la próxima gran batalla

En materia de convergencia, mucho es lo que se habla de la regulación de la infraestructura: fibra, cable, satélite, compartición, etc. Pero con el ingreso de nuevos proveedores provenientes del mundo de las telecomunicaciones surge también otro tema, el de los contenidos, que tienen también una importancia clave a la hora de expandir la oferta del servicio y fomentar la competencia.

Las telcos están ahora frente a un problema que los pequeños operadores de TV paga ya conocen desde hace rato: la forma en que los dueños de los contenidos los ponen a su disposición. Y no se trata únicamente del fútbol, el contenido estrella, sino también de las señales de redes como Fox, HBO, Turner, AMC o Disney a los que recientemente se sumaron los canales de aire. Como se ve, se trata del grueso de la programación de la TV paga.

El problema con que se encuentra todo aquél que quiere iniciarse en la provisión de servicios de TV son los costos de la programación, que por la forma en que están establecidos generan fuertes distorsiones que hacen que el camino inicial sea empinado. Esto se debe a que los programadores hacen su oferta en base al modelo de mínimos garantizados. Este esquema implica un costo inicial fijo partiendo de una cantidad mínima de suscriptores, independientemente de que el operador los tenga o no. Este mínimo es un porcentaje del mercado (no del total de suscriptores del operador en cuestión) al cual se dirige un operador. Este porcentaje llega, en algunos casos, a alrededor del 20% según la red de señales. Es decir, en ciertos casos el operador debe garantizar el pago por el equivalente al 20% de los abonados del mercado objetivo. De esta forma, quien arranca desde cero, tendrá un costo en contenidos equivalente a un número que le llevará varios meses alcanzar, suponiendo una oferta exitosa. El problema ya fue evidente con los derechos de televisación del fútbol, donde sus propietarios exigieron pisos garantizados que hoy, a 9 meses de su inicio, muchos pequeños operadores en el Interior no alcanzaron. Es que, si bien ya eran operaciones en funcionamiento, el paso del FPT gratuito al pack de fútbol pago fue equivalente a arrancar desde cero.

En momentos en que el gobierno no se cansa de repetir que busca “nivelar la cancha” de cara a la convergencia, este punto que omite no es menor, ya que crea asimetrías entre los operadores establecidos y los entrantes. Los primeros, al tener importantes bases instaladas de clientes ya han superado el umbral del mínimo garantizado, pagan un costo de suscripción proporcional a los ingresos que éstos generan. No obstante, para los segundos, la barrera de entrada en términos de costos es elevada, significando un costo por suscriptor mayor hasta no alcanzar el umbral mencionado. De esta forma, en vez de fomentar la competencia, el mecanismo adoptado por los dueños de los contenidos la limita.

Quizás no podría aspirarse a un modelo netamente por suscripciones, ya que hay costos fijos para los dueños de los contenidos (contratos, entrega, supervisión, etc.). Pero sí podría buscarse que ese mínimo garantizado sea lo suficientemente bajo como para cubrir esos costos, pero no tan alto como para impedir o dificultar el ingreso de nuevos operadores. Se trata de un tema al cual debería prestarle atención el ENACOM, quien anteriormente, en situaciones similares, se ha mostrado propenso a dejar que haya acuerdos entre privados. Sin embargo, como esta decisión afecta a la competencia (al igual que sucede en temas de interconexión), no debería ser un simple plateísta.

Tuits selectos

Mucho más que Mobile

Durante la semana que termina tuvo lugar una nueva edición del Mobile World Congress 2018 (MWC), la feria anual más relevante de la industria de las telecomunicaciones que en esta edición dio una clara muestra de que se trata de un sector que está expandiendo aceleradamente su alcance mucho más allá de los ya clásicos teléfonos celulares o smartphones (los cuales, por otra parte, evidencian un claro y natural estancamiento que se refleja en sus ventas).

Si hubiera que resumir la esencia del MWC 2018 sería la sensación de que no es una muestra de móviles sino de dispositivos conectados, algunos claramente móviles (caso smartphones, automóviles, drones, etc.), otros claramente fijos (cámaras, electrodomésticos, maquinaria y sensores industriales y municipales) y otros de movilidad reducida o acotada a un área geográfica muy específica (nuevamente, dispositivos de uso industrial, así como hogareño). Un escenario que abre claramente las puertas al ingreso de nuevos actores, algunos renombrados en otras industrias (como fabricantes de autos y electrodomésticos) así como a emprendimientos que dan muestra de una gran creatividad. Todos desarrollando nuevo hardware y, también, mucho software.

Claro que esta hiperconectividad requiere de una infraestructura capaz de albergarla, y aquí es donde entra en juego la famosa 5G que dio muestras de una mayor maduración, con casos de negocios más definidos. Una 5G que implicará una revolución en términos técnicos respecto de las anteriores, no sólo por su mucho mayor ancho de banda (que requerirá de un extendido backhaul de fibra óptica para alcanzar su potencial) sino que también tendrá diferencias claves respecto de lo anterior. Por un lado, ofrece una capacidad exponencialmente superior para atender una muy superior densidad de dispositivos que ya no serán sólo “teléfonos” sino cualquier cosa que acepte un chip. Aun sin generar tráfico ni establecer comunicación alguna, la señalización que generará esta multiplicidad de dispositivos no podrá ser atendida por las redes actuales. Por otra parte, 5G cuenta con latencias similares a las de la fibra óptica, lo que abre un abanico de posibilidades a soluciones de control y operación remota hoy imposibles. A esto se suma la velocidad (del orden de los Gbps), aún en movimiento, y la confiabilidad. Todas estas características combinadas permiten la utilización de dispositivos más “bobos”, donde el procesamiento puede hacerse en la nube sin afectar el rendimiento. Así, dispositivos más simples, con menos memoria y capacidad de procesamiento (funciones que estarán en la nube) bajarán sensiblemente de precio. A modo de referencia, según los fabricantes, la memoria de un celular puede representar entre ¼ y ⅓ de su costo.

Este entorno está detrás de que por el lado de los dispositivos tipo smartphone no hubiera grandes novedades, aunque sí algunos anuncios. Como suele ser costumbre, Samsung aprovechó la atención mundial que este congreso concita. Presentó su “flagship” o buque insignia, el S9. En apariencia similar al S8, como es natural incluye un procesador más potente y algunas mejoras en la cámara. Pero quizás su principal preocupación no sean ya productos de sus rivales sino un usuario que se encuentra satisfecho con lo que ya tiene y que comienza a estirar el ciclo de renovación, lo que se tradujo en el 2017 en una leve caída del mercado global de smartphones, de la cual no pudo escapar ni Samsung, ni Apple, ni ninguno de los grandes jugadores. De hecho, quienes crecieron fueron los fabricantes chinos, quienes ofrecen prestaciones similares, aunque en equipos de menor costo, capturando una mayor proporción del mercado global, impulsado por mercados emergentes, notablemente más sensibles al precio. Un factor no menor en un momento en que los equipos de gama alta alcanzaron valores reñidos con la realidad de lo que debería ser un producto de consumo masivo.

En todos los ámbitos fue notable la presencia de empresas chinas, no ya sólo como fabricantes de smartphones (que los hubo y en cantidad) sino por su relevancia en infraestructura, con Huawei y ZTE a la cabeza pero que lejos están de ser los únicos. A esto se suma que su capacidad industrial se extiende también hacia una mayor oferta de productos y servicios innovadores.

A diferencia de lo ocurrido en este mismo lugar un año atrás, ahora la industria parece tener más claras las posibilidades y ventajas de la tecnología 5G, que en aquel entonces despertaba más suspicacias. Hoy se percibe más entusiasmo con sus capacidades (que incluyen además un mejor aprovechamiento del espectro), aunque también hay conciencia de que su despliegue total llevará más tiempo. En parte por la necesidad de desarrollar nuevas aplicaciones y hardware, en parte porque la tecnología 5G requiere de una gran capilaridad de la fibra óptica. Mientras tanto, la alternativa será comenzar su despliegue por “islas de conectividad”. En este escenario, quienes más están apostando a esta tecnología son países orientales (como Corea, Japón y China) y los EE.UU. Por su parte, los europeos aparecen un poco más rezagados, aunque con excepciones, como los países escandinavos, bálticos y España, todos con buena penetración de fibra. De hecho, en España, un 76% de las unidades inmobiliarias (hogares, empresas y comercios) están pasadas por al menos alguna red de fibra, lo que posiciona muy bien a este país de cara al 5G. El caso español es interesante, ya que cuenta con más accesos de fibra óptica que hogares, los cuales en muchos casos están pasados por dos y hasta tres redes.

Este escenario que asoma pone a los proveedores de conectividad móvil en una posición central en la configuración de la sociedad del futuro, tanto para individuos como empresas y estados. Un dato que es un llamado de atención para los reguladores, quienes deberán diseñar marcos que fomenten la inversión para el desarrollo de una infraestructura clave de los países.