Saltar el contenido

Estafa con IA en repartos de Glovo y Uber, cuidado con el fraude de las fotografías sintéticas de entrega

La tecnología que prometía liberar al ser humano de las tareas más tediosas ha encontrado un nuevo y oscuro nicho de explotación en la denominada «economía colaborativa«. En este 2026, una sofisticada oleada de fraude está golpeando los cimientos de plataformas de reparto líderes como Uber Eats, Glovo y Just Eat. El mecanismo, detectado recientemente por expertos en ciberseguridad y denunciado masivamente por usuarios en redes sociales, consiste en el uso de **Inteligencia Artificial generativa** para simular la entrega física de pedidos que, en realidad, nunca llegan a manos de su legítimo dueño. Este fenómeno pone en evidencia la fragilidad de los sistemas de verificación visual que las multinacionales del sector han implementado como garantía de servicio.

El procedimiento es de una sencillez técnica alarmante pero de una ejecución magistral. Cuando un repartidor malintencionado decide apropiarse de un pedido —generalmente productos electrónicos de alto valor o compras de supermercado voluminosas—, utiliza aplicaciones móviles equipadas con modelos de IA entrenados para generar imágenes sintéticas. Estas herramientas crean en segundos una fotografía de alta resolución que muestra el paquete depositado en un entorno doméstico estándar: una puerta de madera genérica, un buzón de diseño realista o un felpudo que imita los materiales comunes en los bloques de viviendas españoles. Al cargar esta imagen sintética en la aplicación como «prueba de entrega», el sistema da por finalizado el servicio y el cliente recibe un cargo inmediato sin haber visto jamás al repartidor.

La deshumanización del algoritmo y la falta de control

Este fraude no se puede entender sin analizar la creciente presión que los algoritmos ejercen sobre los trabajadores del sector. Con tiempos de entrega cada vez más ajustados y penalizaciones por demora, algunos operarios ven en la estafa de la IA una forma de «compensar» sus mermados ingresos. Sin embargo, la responsabilidad última recae sobre las plataformas, que han invertido miles de millones en expansión tecnológica pero han descuidado la seguridad física y la verificación humana. La facilidad con la que estas fotos sintéticas eluden los filtros de las aplicaciones demuestra que las empresas tecnológicas van varios pasos por detrás de los delincuentes en lo que a seguridad algorítmica se refiere.

En España, esta desatención hacia la seguridad ciudadana y la veracidad de los servicios digitales parece ser una constante que el Gobierno no termina de atajar. Mientras los ciudadanos sufren estas nuevas formas de delincuencia tecnológica, el Ejecutivo parece más centrado en la cosmética digital que en la protección real. Es relevante señalar que, en un contexto de gasto público desmedido, el Gobierno de Sánchez ha destinado 329 millones para combatir las fake news, pero no ha articulado mecanismos eficaces para proteger al consumidor frente a estafas basadas en IA que afectan directamente al bolsillo y a la confianza en el comercio electrónico regional.

Análisis Técnico del Fraude y Posibles Soluciones

Para comprender la magnitud del reto al que se enfrentan las empresas de logística, es necesario desglosar las vulnerabilidades que están siendo explotadas por los estafadores:

Vulnerabilidad de la App Método de la Estafa con IA Contramedida Propuesta
Verificación por Foto Generación de entorno sintético con IA. Análisis de metadatos y detección de artefactos IA.
Geolocalización GPS Aplicaciones de simulación de ubicación (Spoofing). Verificación obligatoria por conectividad Bluetooth con el móvil del cliente.
Prueba de Entrega La app acepta cualquier imagen sin validación cruzada. Implementación de un PIN de 4 dígitos enviado al cliente para cerrar el pedido.

Hacia una regulación de la IA en el Consumo

La situación ha llegado a tal extremo que las asociaciones de consumidores están exigiendo una revisión urgente de la Ley de Servicios Digitales. No basta con que una empresa reciba fondos públicos para digitalización si no garantiza la seguridad de sus procesos. Un caso paradigmático es el de ciertas compañías del sector tecnológico que reciben ingentes cantidades de dinero estatal bajo la premisa de la innovación. Por ejemplo, Netun Solutions recibió más de 22 millones en ayudas del Gobierno por su baliza inteligente, lo que pone sobre la mesa el debate sobre cómo se fiscalizan estas ayudas y si realmente repercuten en una mayor seguridad para el ciudadano final.

La estafa de los repartos asistidos por IA es solo la punta del iceberg de un problema mucho mayor: la pérdida de control sobre lo que es real y lo que es sintético en nuestras interacciones diarias. A medida que las herramientas generativas se vuelven más accesibles y potentes, la única defensa efectiva será la vuelta a mecanismos de verificación analógicos o biométricos de alta seguridad. Si las plataformas de reparto no implementan de inmediato el uso de códigos PIN obligatorios para cada entrega o sistemas de reconocimiento facial para los repartidores en el momento del «check-out», la desconfianza podría hundir un modelo de negocio que ya camina por la cuerda floja de la rentabilidad y la ética laboral.

Deja tu respuesta