
Un simple refrigerio terminó convertido en una escena de pánico en una secundaria de Maryland (EE. UU.), donde un estudiante de 16 años fue esposado por la policía después de que un sistema de seguridad con inteligencia artificial (IA) confundiera una bolsa de Doritos con un arma de fuego. El caso, ocurrido en la escuela Kenwood High, ha reavivado el debate sobre los límites, sesgos y peligros del uso de IA en instituciones educativas.
Según el informe policial, el joven Taki Allen esperaba a su madre después del entrenamiento de fútbol cuando el sistema de cámaras de vigilancia, equipado con software de detección de armas, emitió una alerta automática. El algoritmo —desarrollado por la empresa Omnilert— interpretó que el estudiante sostenía una pistola, cuando en realidad llevaba una bolsa arrugada de Doritos en el bolsillo. Minutos después, varios agentes armados ingresaron al campus y lo redujeron al suelo, frente a compañeros y profesores.
“Pensé que iba a morir”, dijo Allen en declaraciones recogidas por People Magazine. “Solo tenía papas en la mano”. El adolescente fue esposado, registrado y retenido durante varios minutos antes de que los oficiales confirmaran que no existía amenaza alguna.
La dirección del colegio calificó lo sucedido como “una confusión desafortunada” y ofreció disculpas a la familia, mientras el distrito escolar del condado de Baltimore anunció una revisión urgente del sistema de seguridad. La empresa Omnilert, por su parte, defendió su tecnología alegando que “la detección se basó en una coincidencia visual” y prometió mejoras en la calibración del algoritmo.
El incidente ha generado una ola de críticas entre padres, docentes y expertos en ética tecnológica. Organizaciones civiles cuestionan que la seguridad escolar se delegue completamente a máquinas, sin una verificación humana inmediata. “Cuando un algoritmo tiene poder para movilizar policías armados, cada falso positivo puede convertirse en una tragedia”, advirtió la analista digital Nadia Phelps, de la Universidad de Georgetown.
Este episodio se suma a una serie de fallas recientes en sistemas de IA en Estados Unidos, desde identificaciones erróneas de rostros hasta alertas de seguridad falsas. Según un informe del Center for AI Policy, los errores de detección en entornos escolares se han triplicado desde 2023, impulsados por el aumento de cámaras “inteligentes” instaladas tras tiroteos escolares.
Mientras tanto, la familia de Taki Allen evalúa acciones legales por trauma emocional y uso excesivo de la fuerza. En redes sociales, la frase “era solo una bolsa de Doritos” se ha vuelto viral, símbolo del debate sobre la confianza ciega en la inteligencia artificial.
“La tecnología puede ayudarnos a prevenir tragedias, pero no puede reemplazar el sentido común”, escribió un usuario en X (antes Twitter), reflejando la indignación general.