En una disputa, lo que cuenta es la evidencia: qué decisión tomó la IA, con qué reglas, con qué permisos y qué señales usó.En una disputa, lo que cuenta es la evidencia: qué decisión tomó la IA, con qué reglas, con qué permisos y qué señales usó.

IA comprando por ti: ¿confianza… o puerta al fraude?

2026/02/10 15:41
Lectura de 4 min

¿Qué harías si te llega un paquete que no pediste —pero viene a tu nombre, con tu dirección y con el cargo aprobado— y, cuando reclamas, te responden que “sí fue una compra autorizada”… porque la hizo tu refrigerador inteligente?

La escena suena futurista, pero aterriza en la coyuntura perfecta: el Día Internacional de Internet Seguro (Safer Internet Day) se conmemora el martes 10 de febrero de 2026; y, en Reino Unido, la campaña del UK Safer Internet Centre gira en torno al tema “Smart tech, safe choices”, centrado en el uso seguro y responsable de la inteligencia artificial (IA).

En México, el terreno está listo para que esa conversación deje de ser ciencia ficción. De acuerdo con la Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares 2024, del Instituto Nacional de Estadística y Geografía, 35.8% de las personas usuarias de Internet realizó compras en línea; y entre quienes compraron, lo más adquirido fue, justamente, lo cotidiano: artículos de uso e higiene personal (77.9%), artículos para el hogar (45.8%) y alimentos y bebidas (33.0%).

Pero el giro relevante ya no es solo cuánto compramos por Internet, sino quién compra. El Adyen Retail Report 2026 sugiere que el uso de asistentes de IA ya es significativo: en el levantamiento más reciente, 42.2% de consumidores en México reporta haberlos usado en el último año, y 18.6% dice que lo hizo por primera vez.

La señal está en lo que esto habilita. Quienes ya usan IA para elegir productos muestran apertura a que también sirva para comprar: 63.4% lo consideraría. Y, en el corte más reciente, 48.2% daría un paso más: permitir que el asistente gestione el proceso completo y ejecute la compra final en su nombre, una vez definidos criterios como presupuesto, marca o características. Además, 61.1% quiere que los comercios usen IA para recomendaciones más útiles y precisas.

Ahí está el centro del debate: cuando la IA deja de recomendar y empieza a comprar, ¿quién toma la responsabilidad? La inquietud no es teórica; la confianza en el comercio digital todavía tiene fricciones visibles. El mismo estudio registra que 30.6% considera que pagar en tienda se siente más seguro que pagar en línea, y 27.1% cree que las devoluciones son más fáciles en tienda que por canales digitales. En otras palabras: cuando algo sale mal, el consumidor busca control y una ruta de salida clara.

Y hay un motivo adicional para tomarse la pregunta en serio: el riesgo ya existe, aun antes de que los “agentes” se vuelvan compradores frecuentes. En el Censo Nacional de Seguridad Pública Estatal 2024, el Instituto Nacional de Estadística y Geografía reporta que en 2023 las unidades de policía cibernética u homólogas estatales registraron 148,803 incidentes cibernéticos en los reportes atendidos (6.4% más que en 2022). Dentro del desglose, aparecen 12,676 incidentes de fraude al comercio electrónico, 3,619 de fraude al usuario de banca electrónica y 2,819 de phishing.

Dicho de otro modo: si hoy ya hay fricción real —fraude, suplantación, robo de credenciales—, delegar el “checkout” a sistemas que operan en nombre del usuario amplifica el problema si no se rediseñan reglas, controles y evidencia.

¿Qué tendría que cambiar para que la compra vía inteligencia artificial no abra un nuevo ciclo de desconfianza?

1. Consentimiento verificable (no solo “acepto términos”); Opt-in explícito, límites por monto/categoría/comercio y permisos revocables. Sin eso, la “autorización” se vuelve una zona gris.

2. Control humano por diseño: Si el consumidor quiere revisar, pausar o revertir, el flujo debe contemplarlo: confirmaciones, ventanas de cancelación, alertas ante compras atípicas y una salida clara cuando algo no cuadra.

3. Trazabilidad y prueba: En una disputa, lo que cuenta es la evidencia: qué decisión tomó la IA, con qué reglas, con qué permisos y qué señales usó. Sin registro auditable, la responsabilidad se vuelve humo.

4. Seguridad de pago y datos (requisito, no promesa): No es un eslogan: es arquitectura (minimización de datos, tokenización, controles de acceso, monitoreo). Si la IA va a ejecutar compras, el estándar de seguridad tiene que subir, no relajarse.

5. Responsabilidad compartida, pero no difusa:“Todos” responsables suele terminar en “nadie” resolviendo. La industria necesita una respuesta simple a “¿quién paga el error?” y procesos transparentes para disputas, reembolsos y contracargos: rápidos, consistentes y entendibles.

La pregunta no es si la IA vende más, sino si el negocio puede absorber el costo del error. Ahí se decide si los agentes escalan.

Oportunidad de mercado
Logo de Citigroup
Precio de Citigroup(CON)
$124.68
$124.68$124.68
-0.30%
USD
Gráfico de precios en vivo de Citigroup (CON)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.