Usaron una serie de ataques diferentes para manipular las señales con el fin de engañar a los modelos de aprendizaje automático para que los interpretaran mal. Por ejemplo, imprimían pegatinas para engañar al sistema de visión. En el artículo titulado : "
Robust Physical-World Attacks on Machine Learning Models"
arxiv.org/abs/1707.08945 demostraron cuatro maneras diferentes de interrumpir la forma en que las máquinas leen y clasifican estos signos utilizando sólo una impresora en color y una cámara.