El año del big data
Una rueda de prensa de Miguel Ángel Ramírez puso el foco de atención en los macrodatos durante parte de la temporada. ¿Cuáles son sus funciones dentro de un club?
En el fútbol, como en la vida, poco a poco se van añadiendo nuevos elementos disruptivos y saliendo otros que están en desuso. La doble punta, mainstream hasta hace unos años queda ha ido variando a la figura de un único delantero o incluso el falso nueve, los extremos fueron perdiendo su vigencia y de lado. Cambios en el fútbol que se trasladan también a toda la dialéctica que rodea al deporte rey.
Aunque su desembarco se produjo hace varias temporadas, fue este año cuando el big data irrumpió en el debate de la actualidad amarilla orbitando alrededor del cambio de Pepe Mel por García Pimienta en el banquillo. Algo que no surgió de manera infusa, sino que fue bajado a la calle por el propio Miguel Ángel Ramírez cuando lo mencionó como uno de los factores en los que se apoyó el club a la hora de decidir el cambio en los banquillos.
A partir de ahí, el foco de la opinión pública y de los debates empezaron a incluir en la escaleta de la discusión fubtolística amarilla el big data, pasando de ser una herramienta basada en datos objetivos usada por los clubes de forma interna a una especie de oráculo, a ojos de parte del entorno amarillo.
Un paseo a paso ligero por la historia
Este big data que forma parte de empresas y organizaciones como una herramienta utilizada para revelar patrones, tendencias y asociaciones, tras el tratamiento de grandes cantidades datos empieza en el fútbol en 1950 con una simple libreta y un aficionado, Charles Reep, frustrado por la ineficacia goleadora del Swidon Town durante la primera parte del partido que le enfrentaba al Bristol Rovers.
En la segunda parte, Charles Reep decidió tomar nota en vivo de pases y posiciones de los jugadores para analizar las jugadas de ataque para intentar encontrar mejoras que podría realizar el Swidon en su juego y anotar más goles. En ese partido registró que en la segunda parte necesitaron 147 jugadas para anotar un gol, lo que significaba, según sus cálculos, que en 90 minutos necesitaría de unos 280 jugadas para marcar dos goles.
Tras varios años trabajando y analizando, a Charles Reep se le reconocen una serie de descubrimientos estadísticos del fútbol inglés de aquellos tiempos, como por ejemplo que se necesitaban 10 tiros para anotar un gol o que 8 de cada 10 goles se originaban con jugadas de 3 o menos pases, entre otros datos.
Su trabajo inicial llamó la atención del técnico Jackie Gibbons y le contrató como consultor para un Brentford que en 1951 luchaba para evitar el descenso. Con la ayuda de Reep, los ‘Bees’ consiguieron el mantener la categoría ganando 13 de los últimos 14 partidos, en la que se incluía una notable mejoría en goles, multiplicando por dos sus números.
Precisamente el Brentford, 74 años después, regresó a la primera división del fútbol inglés la pasada campaña con un modelo implantado por su propietario, Matthew Benham, en el que la toma de decisiones estaba fuertemente sustentada en la consulta de datos. Bajo una premisa: “Si David quiere vencer a Goliat, no puede usar sus misma armas”, decía Rasmus Ankersen, codirector de fútbol del club londinense.
Es por ello que el Brentford, que para medir sus resultados “no nos fijamos en la clasificación, sino en calificaciones subyacentes en las que confiamos más. Son más predictivas de hacia dónde vamos a ir”, justificando que “la clasificación no siempre refleja tu fortaleza real”, buena o mala.
En su primer año el conjunto inglés, consiguió una plácida permanencia en su vuelta a la élite quedando en decimotercera posición, su política de fichaje parte, “Si los jugadores estuvieran completamente desarrollados, el Brentford no podría comprarlos. Se obtiene un paquete inacabado, y hay que mejorarlo”. Por ello son conscientes que a la hora de contratar “se trata de entender qué problemas puedes solucionar y cuáles no”, expresaba Rasmus Ankersen.
El big data en la U.D. Las Palmas
Aunque el dato entró en la escena pública el pasado mes de enero, el club de Pío XII venía trabajando en ello hace tiempo y se vio potenciado con el nombramiento de Paco González como máximo responsable del “área de Desarrollo Digital y Big Data” en septiembre 2021, proveniente del Valladolid, aunque antes había trabajado para el Sevilla o el PSG.
El propio Luis Helguera, director deportivo de la entidad, fue preguntado sobre la labor de este departamento de forma genérica en el club y sobre todo a la hora de tomar la decisión del cambio de entrenador. “Los datos sirven para corroborar o desmentir opiniones personales, tratando de eliminar cualquier prejuicio o visiones subjetivas que tenemos. Estamos muy contentos con la llegada de Paco y con la aportación de los datos. Es una herramienta, pero evidentemente los datos no cesan a Mel ni contratan a Pimienta. Es un valor añadido, lo tenemos ahí”, diría el ejecutivo amarillo.
Semanas después el técnico García Pimienta iba por la misma línea de opinión, “El big data al final en lo que te ayuda es a identificar todo lo que tú has pensado, todo lo que tú has visto y que se traduzca en números. Yo lo tengo muy en cuenta, pero no como algo definitivo, sino algo que nos ayuda”, señalaba en la previa del partido ante el Eibar.
Pero no solo de estadística vive un departamento de big data, además desarrolla aplicaciones informáticas propias —iterado con las aportaciones internas de los trabajadores— que tienen como misión agilizar la toma decisiones por parte del club y reducir el margen de error, a sabiendas de que será imposible erradicarlo.
Estas aplicaciones informáticas, habitual en el fútbol actual, suelen tener distintas funcionalidades como la inserción y consulta de informes por parte de los ojeadores del club, el cruce de estadísticas de los jugadores y los scouts, búsqueda de jugadores similares en base a unos parámetros deseados.
Apoyo en los fichajes
El departamento de big data en un club de fútbol como la U.D. Las Palmas no solo apoya el análisis diario y ayuda a la preparación de los encuentros futuros, sino que forma también parte del proceso de fichajes.
Una vez determinado el rango económico del club y el estilo de juego, ese que han hecho mención tanto el técnico amarillo —García Pimienta—, el director deportivo —Luis Helguera— o el mismo presidente —Miguel Ángel Ramírez—, la búsqueda de jugadores se basa, por un lado, en una parte subjetiva, aquella que se ingesta con los análisis de los ojeadores, y se apoya, por otro lado, en una parte objetiva que ofrecen los datos.
El aporte estadístico ayuda en primer lugar a desprenderse de los sesgos personales. Pero también, gracias al procesamiento de enormes cantidades datos que ya existen en el fútbol, facilita el descubrimiento de jugadores que no estaban bajo el radar del club y permite añadirlo a un banco de posibles.
Desde los departamentos de análisis estadísticos siempre inciden en un mismo mensaje, el big data no ha venido a sustituir al ojo sino a complementarlo. Su misión es la de sacar a la luz aspectos del juego que no son fácilmente detectables solo con el visionado.
Además, la agilidad y rapidez mencionada anteriormente, ayuda en situaciones concretas. Un caso práctico: final de mercado en el que aparecen ofrecimientos inesperados y potencialmente interesantes. El tiempo, en estos casos, es un bien fundamental para intentar tomar la decisión adecuada con la mayor información posible. A mayor rapidez y mayor cantidad de datos objetivos que puedan crear modelos predictivos, menor margen de error y mayores posibilidades para conseguir una ventaja competitiva, aquel ‘mirlo blanco’. En un momento además de gran estrés.
En definitiva, aquella improvisada rueda de prensa de Miguel Ángel Ramírez que puso en el centro del foco al big data ha permitido conocer por parte de una audiencia generalista algo que estaba ocurriendo entre bambalinas y que no terminaba de concretarse en ejemplos prácticos a ojos del debate futbolero amarillo.