- RafaVsMiembro VIPPremio por estar tantos años con nosotrosPremia la antiguedad en el foroMaxima graduacionAl mejor A la mejor aportación al foro
- Como nos has conocido? : Grano a grano, se hace el granero.
Mensajes : 9770
Fecha de inscripción : 29/05/2018
Localización : Galicia
Un simple parche de colores permite engañar a las cámaras de vigilancia con IA para que no detecten personas en una imagen.
Mar 23 Abr 2019, 17:10
xataka.com
MARCOS MERINO.
23.04.2019
Tres investigadores belgas, de la Universidad de Lovaina, han desarrollado un medio (basado en la técnica conocida como de 'muestras antagónicas') para engañar a las cámaras de vigilancia equipadas con inteligencia artificial y lograr que no sean capaces de reconocer a personas en la imagen.
"La idea detrás de esta investigación radica en ser capaz de eludir los sistemas de seguridad que [...] generan una alarma cuando una persona entra en el campo de visión de una cámara".
¿Qué son las 'muestras antagónicas'?
El auge de las redes neuronales convolucionales (CNN) se ha traducido en grandes éxitos en el campo de la visión artificial. El problema es que, en paralelo a la mejora de su precisión, ha ido disminuyendo su interpretabilidad: a estas alturas resulta ciertamente difícil saber, por ejemplo, por qué una red identifica a una persona como tal.
Fundamentalmente, la red neuronal aprende cuál es el aspecto de una persona "en abstracto" viendo muchas fotos de personas reales. Y si queremos evaluar su efectividad, no tenemos más opción que someter las mismas imágenes a dos procesos de clasificación paralelos: por parte de CNNs y de humanos.
Pero esto presenta un problema: en esas evaluaciones no se utilizan imágenes diseñadas específicamente para engañar al sistema; lo que llamamos muestras antagónicas, que incorporan patrones específicos que no engañan al ojo humano pero sí a las redes neuronales responsables de la visión artificial.
Así, ha sido posible diseñar simples pegatinas capaces de confundir al piloto automático de un Tesla acerca de en qué carril se encuentra. O, más sorprendentemente, hacer pasar una tortuga de plástico por una escopeta.
Wiebe Van Ranst, uno de los investigadores, afirmó que se pueden desarrollar parches aún más fiables teniendo acceso a imágenes de la cámara de vigilancia que se busca burlar, pues así es posible personalizarlos. En HackerNews, los usuarios han probado a especular sobre la clave del funcionamiento de este método:
"El hecho de que el parche deba colocarse alrededor de la cintura podría indicar que la transición camisa/pantalón es importante para el algoritmo. Tendría sentido, dado que los datos de entrenamiento posiblemente estén llenos de personas vestidas".
Otros usuarios destacan que, al contrario que el patrón de camuflaje CV Dazzle (antirreconocimiento facial), el usado en esta investigación parece "práctico" y se ve "totalmente normal en público".
Al hilo de eso, Van Ranst afirma ahora que su siguiente objetivo es que el parche pueda aplicarse a la propia ropa (por ejemplo, en forma de camiseta) y que sea capaz de confundir a la cámara desde distintos ángulos. Aunque reconoce que, para lograr eso, aún tienen trabajo por delante.
Vía | Arxiv.org
Fuente: [Tienes que estar registrado y conectado para ver este vínculo]
MARCOS MERINO.
23.04.2019
Tres investigadores belgas, de la Universidad de Lovaina, han desarrollado un medio (basado en la técnica conocida como de 'muestras antagónicas') para engañar a las cámaras de vigilancia equipadas con inteligencia artificial y lograr que no sean capaces de reconocer a personas en la imagen.
"La idea detrás de esta investigación radica en ser capaz de eludir los sistemas de seguridad que [...] generan una alarma cuando una persona entra en el campo de visión de una cámara".
¿Qué son las 'muestras antagónicas'?
El auge de las redes neuronales convolucionales (CNN) se ha traducido en grandes éxitos en el campo de la visión artificial. El problema es que, en paralelo a la mejora de su precisión, ha ido disminuyendo su interpretabilidad: a estas alturas resulta ciertamente difícil saber, por ejemplo, por qué una red identifica a una persona como tal.
Fundamentalmente, la red neuronal aprende cuál es el aspecto de una persona "en abstracto" viendo muchas fotos de personas reales. Y si queremos evaluar su efectividad, no tenemos más opción que someter las mismas imágenes a dos procesos de clasificación paralelos: por parte de CNNs y de humanos.
Pero esto presenta un problema: en esas evaluaciones no se utilizan imágenes diseñadas específicamente para engañar al sistema; lo que llamamos muestras antagónicas, que incorporan patrones específicos que no engañan al ojo humano pero sí a las redes neuronales responsables de la visión artificial.
Así, ha sido posible diseñar simples pegatinas capaces de confundir al piloto automático de un Tesla acerca de en qué carril se encuentra. O, más sorprendentemente, hacer pasar una tortuga de plástico por una escopeta.
Wiebe Van Ranst, uno de los investigadores, afirmó que se pueden desarrollar parches aún más fiables teniendo acceso a imágenes de la cámara de vigilancia que se busca burlar, pues así es posible personalizarlos. En HackerNews, los usuarios han probado a especular sobre la clave del funcionamiento de este método:
"El hecho de que el parche deba colocarse alrededor de la cintura podría indicar que la transición camisa/pantalón es importante para el algoritmo. Tendría sentido, dado que los datos de entrenamiento posiblemente estén llenos de personas vestidas".
Otros usuarios destacan que, al contrario que el patrón de camuflaje CV Dazzle (antirreconocimiento facial), el usado en esta investigación parece "práctico" y se ve "totalmente normal en público".
Al hilo de eso, Van Ranst afirma ahora que su siguiente objetivo es que el parche pueda aplicarse a la propia ropa (por ejemplo, en forma de camiseta) y que sea capaz de confundir a la cámara desde distintos ángulos. Aunque reconoce que, para lograr eso, aún tienen trabajo por delante.
Vía | Arxiv.org
Fuente: [Tienes que estar registrado y conectado para ver este vínculo]
- RafaVsMiembro VIPPremio por estar tantos años con nosotrosPremia la antiguedad en el foroMaxima graduacionAl mejor A la mejor aportación al foro
- Como nos has conocido? : Grano a grano, se hace el granero.
Mensajes : 9770
Fecha de inscripción : 29/05/2018
Localización : Galicia
Re: Un simple parche de colores permite engañar a las cámaras de vigilancia con IA para que no detecten personas en una imagen.
Mar 23 Abr 2019, 17:19
xataka.com
MARCOS MERINO.
10.04.2019
Estos son los métodos con los que intentan sortear el reconocimiento facial los defensores de la privacidad.
San Francisco podría convertirse en breve, si la iniciativa de uno de sus concejales tiene éxito, en la primera ciudad del mundo que prohíba explícitamente el uso de tecnología de reconocimiento facial por parte de las autoridades, al menos en caso de carecer de una orden judicial.
El mero hecho de que se haya planteado esta iniciativa refleja hasta qué punto preocupa a mucha gente esta tecnología de vigilancia. Mientras, el Estado de Hipervigilancia erigido por el régimen chino, millones de cámaras mediante, ejerce como modelo de inspiración para políticos de todo el mundo.
Pero la cuestión es que no sólo las autoridades están interesadas en hacer uso del reconocimiento facial: negocios privados como centros comerciales o campos deportivos se están sumando a esa tendencia. Hasta Taylor Swift recurrió a ello para localizar posibles acosadores.
En este contexto, no extraña que haya gente ideando métodos para sortear las tecnologías de reconocimiento facial que se encuentran en su día a día: métodos de lo más diverso y, en muchos casos, condenados a quedar obsoletos dentro de muy poco.
"Dependiendo del tipo de tecnología que se esté utilizando, se puede intentar sortear el reconocimiento facial de muchas formas diferentes", explica a Wired la activista pro-privacidad Lilly Ryan.
"Se necesita saber qué hay 'debajo del capó' para saber qué método podría funcionar en cada caso, y puede resultar muy difícil para la persona promedio saber qué tipo de tecnología de reconocimiento facial se está utilizando en un momento determinado".
Simplificando bastante, podría decirse que las técnicas para sortear este tipo de vigilancia se clasifican en dos categorías: ocultamiento y confusión.
Técnicas basadas en el ocultamiento.
Basada en ocultar físicamente los rasgos faciales que la IA podría identificar. Métodos como los sombreros, barbas falsas, bufandas o gafas de sol podrán ser útiles para evitar que te identifique otro humano, pero muchos sistemas de reconocimiento facial pueden superar ya estos pequeños obstáculos.
Ni siquiera los pasamontañas son ya seguros: más te vale llevar una máscara como la de Spider-Man o, como mínimo, la de V de Vendetta, porque los últimos avances en reconocimiento facial ya permiten, recurriendo tan sólo a la zona que circundan boca y mentón, reconocer la identidad. Sí, Batman, sabemos que eres Bruce Wayne. De lo de Clark Kent mejor no decimos nada.
La máscara de URME.
Leonardo Selvaggio es un artista y empresario de Chicago que en 2014 vio la oportunidad de hacer -simultáneamente- negocio y activismo a través de su empresa URME Surveillance, dedicada "a proteger al público de la vigilancia y a crear un espacio seguro para explorar nuestras identidades digitales".
Para ello, comercializó por 200 dólares la unidad una máscara hiperrealista (fabricada gracias a técnicas de impresión 3D), capaz de reproducir fielmente sus propias facciones y evitar así que sus compradores sean reconocidos.
Técnicas basadas en la confusión.
CV Dazzle e HyperFace
Adam Harvey es otro 'artivista',como Selvaggio. Pero él se ha propuesto no recurrir al radical método de tapar nuestros rostro. Él, por el contrario, prefiere 'hackear' los principales algoritmos de reconocimiento facial, hasta convertir nuestros rostros en un puñado de píxeles totalmente irrelevantes para los mismos.
Lo logró con el proyecto Computer Visión Dazzle, basado en el uso de llamativos maquillajes y peinados asimétricos que no evitarán (más bien lo contrario) que la gente se fije en ti por la calle, pero sí dificultará que las cámaras sean capaces detectar en nuestros rostros los patrones típicos de los rasgos faciales.
El principio es simple: no hay reconocimiento facial posible si la máquina no es capaz de darse cuenta de que lo que tiene delante es un rostro humano.
La página web de CV Dazzle ofrece algunos consejos útiles para diseñar nuestro propio estilismo pro-privacidad:
Maquillaje: Nada de amplificar rasgos faciales con potenciadores; mejor usar maquillaje que contraste con el tono de piel, y aplicarlo siguiendo direcciones inusuales.
Puente de la nariz: Es una característica facial clave (en ella se entrecruzan nariz, ojos y frente) y es útil cubrirla parcialmente.
Ojos: La posición de los ojos es otra característica clave, por lo que se recomienda oscurecer los alrededores de uno de ellos.
Más tarde, Harvey probó con otro enfoque complementario: elaborar prendas de ropa con una tela diseñada por él y llamada HyperFace, llena de cientos de patrones geométricos que los sistemas de reconocimiento facial detectan como rostros, dificultando así identificar cuál es el real.
Un proyecto abortado en Rusia.
Grigori Bakunov, director de distribución tecnológica de Yandex (el Google ruso), también desarrolló una idea similar a la de Harvey tras darse cuenta de que era "imposible moverse por Moscú evitando las cámaras". Por ello, empezó a desarrollar un algoritmo que proporcionaba al usuario un patrón de maquillaje concreto que impedía identificarle con éxito mediante reconocimiento facial.
Bakunov lo define como "un algoritmo sencillo pero eficaz" que permitió crear un maquillaje futurista que podría engañar a las cámaras inteligentes con sólo algunas líneas en el rostro. Sin embargo, finalmente decidió no lanzarlo al mercado: "a posibilidad de que alguien lo usara para fines criminales era demasiado alta".
Los Jugaloos.
Involuntariamente, los seguidores del grupo de rap estadounidense Insane Clown Posse, conocidos como Jugaloos y Jugalettes, se han convertido en héroes del movimiento pro-privacidad por la utilidad de sus particulares patrones de maquillaje a la hora de evitar el ojo del Gran Hermano. Como afirma el autor del tuit del que se ha extraído la imagen anterior,
"Cualquiera que se pregunte por qué algunos cambios en la cara evaden el reconocimiento facial y otros no, aquí se ve algunos ejemplos de cómo se sitúan los puntos de referencia. El maquillaje de juggalo es particularmente efectivo porque redefine totalmente lo que se interpreta como la línea de la mandíbula".
Recurriendo al deslumbramiento.
Existen también medios de confusión basados en el deslumbramiento por reflejo: gafas, como las Privacy Visor creadas por el Instituto Nacional de Informática de Japón, que reflejan la luz del techo en la lente de la cámara, convirtiendo en virtualmente invisible la zona alrededor de los ojos. Las Reflectacles tienen un efecto similar: via Gfycat
Si la tecnología de reconocimiento se utiliza para procesar fotografías tomadas con flash, puede haber sido útil vestir una sudadera Flashback Photobomber que, al estar recubierta con cientos de cristales con microesferas, hace rebotar la luz y oscurece el rostro.
Sin embargo, recurrir al deslumbramiento sólo es útil cuando el sistema de reconocimiento al que estemos expuestos dependa de la luz visible. El FaceID de Apple, por ejemplo, se basa en el uso de luz infrarroja, por lo que es inmune a dicha treta.
Gafas con facciones de celebrities.
Si algo se lleva la palma a la hora de confundir a los sistemas de vigilancia es que puedas convencer a la IA de que tu rostro es el de otra persona sin necesidad de ocultar tu rostro.
En 2016, un equipo de investigadores de la Universidad Carnegie Mellon de Pittsburgh desarrolló un tipo de gafas capaces de convencer a los sistemas de vigilancia de que somos otra persona. Por ejemplo, Milla Jovovich.
Este 'hackeo' se basa en el distinto modo en que humanos y máquinas usamos entendemos los rostros: un cambio selectivo de píxeles puede no alterar en lo más mínimo cómo vemos a una persona, pero sí alterar los patrones de su rostro de cara a una IA.
Así, tan sólo portando unas gafas de pasta algo 'coloristas', podemos 'colar' las facciones de otras personas.
Sus creadores reconocen, sin embargo, que esto no siempre es factible en situaciones no controladas.
Fuente: [Tienes que estar registrado y conectado para ver este vínculo]
MARCOS MERINO.
10.04.2019
Estos son los métodos con los que intentan sortear el reconocimiento facial los defensores de la privacidad.
San Francisco podría convertirse en breve, si la iniciativa de uno de sus concejales tiene éxito, en la primera ciudad del mundo que prohíba explícitamente el uso de tecnología de reconocimiento facial por parte de las autoridades, al menos en caso de carecer de una orden judicial.
El mero hecho de que se haya planteado esta iniciativa refleja hasta qué punto preocupa a mucha gente esta tecnología de vigilancia. Mientras, el Estado de Hipervigilancia erigido por el régimen chino, millones de cámaras mediante, ejerce como modelo de inspiración para políticos de todo el mundo.
Pero la cuestión es que no sólo las autoridades están interesadas en hacer uso del reconocimiento facial: negocios privados como centros comerciales o campos deportivos se están sumando a esa tendencia. Hasta Taylor Swift recurrió a ello para localizar posibles acosadores.
En este contexto, no extraña que haya gente ideando métodos para sortear las tecnologías de reconocimiento facial que se encuentran en su día a día: métodos de lo más diverso y, en muchos casos, condenados a quedar obsoletos dentro de muy poco.
"Dependiendo del tipo de tecnología que se esté utilizando, se puede intentar sortear el reconocimiento facial de muchas formas diferentes", explica a Wired la activista pro-privacidad Lilly Ryan.
"Se necesita saber qué hay 'debajo del capó' para saber qué método podría funcionar en cada caso, y puede resultar muy difícil para la persona promedio saber qué tipo de tecnología de reconocimiento facial se está utilizando en un momento determinado".
Simplificando bastante, podría decirse que las técnicas para sortear este tipo de vigilancia se clasifican en dos categorías: ocultamiento y confusión.
Técnicas basadas en el ocultamiento.
Basada en ocultar físicamente los rasgos faciales que la IA podría identificar. Métodos como los sombreros, barbas falsas, bufandas o gafas de sol podrán ser útiles para evitar que te identifique otro humano, pero muchos sistemas de reconocimiento facial pueden superar ya estos pequeños obstáculos.
Ni siquiera los pasamontañas son ya seguros: más te vale llevar una máscara como la de Spider-Man o, como mínimo, la de V de Vendetta, porque los últimos avances en reconocimiento facial ya permiten, recurriendo tan sólo a la zona que circundan boca y mentón, reconocer la identidad. Sí, Batman, sabemos que eres Bruce Wayne. De lo de Clark Kent mejor no decimos nada.
La máscara de URME.
Leonardo Selvaggio es un artista y empresario de Chicago que en 2014 vio la oportunidad de hacer -simultáneamente- negocio y activismo a través de su empresa URME Surveillance, dedicada "a proteger al público de la vigilancia y a crear un espacio seguro para explorar nuestras identidades digitales".
Para ello, comercializó por 200 dólares la unidad una máscara hiperrealista (fabricada gracias a técnicas de impresión 3D), capaz de reproducir fielmente sus propias facciones y evitar así que sus compradores sean reconocidos.
Técnicas basadas en la confusión.
CV Dazzle e HyperFace
Adam Harvey es otro 'artivista',como Selvaggio. Pero él se ha propuesto no recurrir al radical método de tapar nuestros rostro. Él, por el contrario, prefiere 'hackear' los principales algoritmos de reconocimiento facial, hasta convertir nuestros rostros en un puñado de píxeles totalmente irrelevantes para los mismos.
Lo logró con el proyecto Computer Visión Dazzle, basado en el uso de llamativos maquillajes y peinados asimétricos que no evitarán (más bien lo contrario) que la gente se fije en ti por la calle, pero sí dificultará que las cámaras sean capaces detectar en nuestros rostros los patrones típicos de los rasgos faciales.
El principio es simple: no hay reconocimiento facial posible si la máquina no es capaz de darse cuenta de que lo que tiene delante es un rostro humano.
La página web de CV Dazzle ofrece algunos consejos útiles para diseñar nuestro propio estilismo pro-privacidad:
Maquillaje: Nada de amplificar rasgos faciales con potenciadores; mejor usar maquillaje que contraste con el tono de piel, y aplicarlo siguiendo direcciones inusuales.
Puente de la nariz: Es una característica facial clave (en ella se entrecruzan nariz, ojos y frente) y es útil cubrirla parcialmente.
Ojos: La posición de los ojos es otra característica clave, por lo que se recomienda oscurecer los alrededores de uno de ellos.
Más tarde, Harvey probó con otro enfoque complementario: elaborar prendas de ropa con una tela diseñada por él y llamada HyperFace, llena de cientos de patrones geométricos que los sistemas de reconocimiento facial detectan como rostros, dificultando así identificar cuál es el real.
Un proyecto abortado en Rusia.
Grigori Bakunov, director de distribución tecnológica de Yandex (el Google ruso), también desarrolló una idea similar a la de Harvey tras darse cuenta de que era "imposible moverse por Moscú evitando las cámaras". Por ello, empezó a desarrollar un algoritmo que proporcionaba al usuario un patrón de maquillaje concreto que impedía identificarle con éxito mediante reconocimiento facial.
Bakunov lo define como "un algoritmo sencillo pero eficaz" que permitió crear un maquillaje futurista que podría engañar a las cámaras inteligentes con sólo algunas líneas en el rostro. Sin embargo, finalmente decidió no lanzarlo al mercado: "a posibilidad de que alguien lo usara para fines criminales era demasiado alta".
Los Jugaloos.
Involuntariamente, los seguidores del grupo de rap estadounidense Insane Clown Posse, conocidos como Jugaloos y Jugalettes, se han convertido en héroes del movimiento pro-privacidad por la utilidad de sus particulares patrones de maquillaje a la hora de evitar el ojo del Gran Hermano. Como afirma el autor del tuit del que se ha extraído la imagen anterior,
"Cualquiera que se pregunte por qué algunos cambios en la cara evaden el reconocimiento facial y otros no, aquí se ve algunos ejemplos de cómo se sitúan los puntos de referencia. El maquillaje de juggalo es particularmente efectivo porque redefine totalmente lo que se interpreta como la línea de la mandíbula".
Recurriendo al deslumbramiento.
Existen también medios de confusión basados en el deslumbramiento por reflejo: gafas, como las Privacy Visor creadas por el Instituto Nacional de Informática de Japón, que reflejan la luz del techo en la lente de la cámara, convirtiendo en virtualmente invisible la zona alrededor de los ojos. Las Reflectacles tienen un efecto similar: via Gfycat
Si la tecnología de reconocimiento se utiliza para procesar fotografías tomadas con flash, puede haber sido útil vestir una sudadera Flashback Photobomber que, al estar recubierta con cientos de cristales con microesferas, hace rebotar la luz y oscurece el rostro.
Sin embargo, recurrir al deslumbramiento sólo es útil cuando el sistema de reconocimiento al que estemos expuestos dependa de la luz visible. El FaceID de Apple, por ejemplo, se basa en el uso de luz infrarroja, por lo que es inmune a dicha treta.
Gafas con facciones de celebrities.
Si algo se lleva la palma a la hora de confundir a los sistemas de vigilancia es que puedas convencer a la IA de que tu rostro es el de otra persona sin necesidad de ocultar tu rostro.
En 2016, un equipo de investigadores de la Universidad Carnegie Mellon de Pittsburgh desarrolló un tipo de gafas capaces de convencer a los sistemas de vigilancia de que somos otra persona. Por ejemplo, Milla Jovovich.
Este 'hackeo' se basa en el distinto modo en que humanos y máquinas usamos entendemos los rostros: un cambio selectivo de píxeles puede no alterar en lo más mínimo cómo vemos a una persona, pero sí alterar los patrones de su rostro de cara a una IA.
Así, tan sólo portando unas gafas de pasta algo 'coloristas', podemos 'colar' las facciones de otras personas.
Sus creadores reconocen, sin embargo, que esto no siempre es factible en situaciones no controladas.
Fuente: [Tienes que estar registrado y conectado para ver este vínculo]
- J. J.Moderador globalPremio por estar tantos años con nosotrosPremia la antiguedad en el foroMaxima graduacionAl mejor A la mejor aportación al foro
- Como nos has conocido? : Por internet
Mensajes : 4950
Fecha de inscripción : 15/01/2018
Edad : 61
Localización : Provincia de Toledo
Re: Un simple parche de colores permite engañar a las cámaras de vigilancia con IA para que no detecten personas en una imagen.
Miér 24 Abr 2019, 00:56
De todas formas es a lo que estamos abocados a que cada vez estemos más controlados por cámaras , móviles , radares y satélites .
Debe de haber un gran negocio con tenernos bien controlados , aunque no sé qué es peor si que te controlen o no ya que no es sólo a ti sino a todo el mundo por lo que conlleva a los malos también .
Creo que sino estás haciendo nada malo no debería importarte que por la calle te graben cámaras de seguridad otra cosa sería muy distinto en tu casa y ciertos sitios como baños y vestuarios .
Debe de haber un gran negocio con tenernos bien controlados , aunque no sé qué es peor si que te controlen o no ya que no es sólo a ti sino a todo el mundo por lo que conlleva a los malos también .
Creo que sino estás haciendo nada malo no debería importarte que por la calle te graben cámaras de seguridad otra cosa sería muy distinto en tu casa y ciertos sitios como baños y vestuarios .
************************************
[Tienes que estar registrado y conectado para ver esa imagen]
"" Lo único que te vas a llevar de este mundo es lo que vives , así que vive todo lo que te quieres llevar "".
- ValkyriaMiembro VIPPremio por estar tantos años con nosotrosPremia la antiguedad en el foroRecompensaRecompensa por la aportación al foroMaxima graduacionAl mejor A la mejor aportación al foro
- Mensajes : 10675
Fecha de inscripción : 15/03/2016
Localización : España
Re: Un simple parche de colores permite engañar a las cámaras de vigilancia con IA para que no detecten personas en una imagen.
Miér 24 Abr 2019, 02:33
J. J. escribió:
Creo que sino estás haciendo nada malo no debería importarte que por la calle te graben cámaras de seguridad otra cosa sería muy distinto en tu casa y ciertos sitios como baños y vestuarios .
A ver porqué tiene que saber nadie a dónde voy o dejo de ir. En el fondo tal vez me daría lo mismo que me grabasen porque no iba a hacer nada malo, pero no me da la gana de que me espíen.
Es como si ahora saliese una nueva ley de vigilancia desde la propia cámara de nuestros móviles, que solo se activase la cámara del móvil cuando detectase que estamos fuera de casa. ¿Aceptaríamos el espionaje a través de nuestra cámara del móvil solo porque total no vamos a hacer nada malo?
Pues para mí sería lo mismo ésto que la vigilancia por cámaras "normales".
Aunque claro, ya nos vigilan a través de la cámara y micrófono del móvil, pero "sin que lo sepamos" (o por lo menos sin que queramos saberlo). Igual que nos vigilan a través de los televisores que podemos conectar a internet cuando están conectados. Pero "tampoco lo sabemos", porque nadie lo ha dicho por la TV . Si lo dijeran por la TV lo sabríamos , pero como no lo dicen será porque no es verdad que nos vigila nadie por nuestros dispositivos.
Que yo sepa la maldad se ha atajado siempre que se ha querido atajar y nunca ha habido cámaras. De hecho ahora mismo que ya hay bastantes cámaras por todas partes hay más delincuencia que nunca. Lo que significa que el propósito de tanta cámara no es el que nos cuentan sino el del control social.
Aún no sabemos realmente para qué quieren controlarnos tanto mediante cámaras. Pero lo vamos a saber en un futuro próximo. Esto de las cámaras es una cuestión complementaria de otras tantas que van a llegar pronto, no se va a quedar solo en cámaras. Por eso aún no sabemos nada realmente. Aún creemos que ese control por cámaras es por seguridad, ay jajaaaaaaaaaaaaaaaaa, cuando desaparezca el dinero en efectivo, y aparezcan otras tantas cosas, ya sabremos para qué era tanta cámara.
Pero que nada, que aunque haya más cámaras que nunca y más delincuencia que nunca, la gente en general seguirá pensando que todo lo hacen por nuestra seguridad. Igual que precarizan el trabajo por nuestro bien.
- cuarentaconseisExperto Nivel 6Premio por estar tantos años con nosotrosPremia la antiguedad en el foro
- Como nos has conocido? : .
Mensajes : 1837
Fecha de inscripción : 26/09/2018
Localización : .
Re: Un simple parche de colores permite engañar a las cámaras de vigilancia con IA para que no detecten personas en una imagen.
Miér 24 Abr 2019, 16:20
Valkyria escribió:Que yo sepa la maldad se ha atajado siempre que se ha querido atajar y nunca ha habido cámaras. De hecho ahora mismo que ya hay bastantes cámaras por todas partes hay más delincuencia que nunca. Lo que significa que el propósito de tanta cámara no es el que nos cuentan sino el del control social.
Yo cada vez que entro al metro y oigo por megafonía el mensaje de "Esta estación esta dotada de camaras por su seguridad" me vivo.
- ValkyriaMiembro VIPPremio por estar tantos años con nosotrosPremia la antiguedad en el foroRecompensaRecompensa por la aportación al foroMaxima graduacionAl mejor A la mejor aportación al foro
- Mensajes : 10675
Fecha de inscripción : 15/03/2016
Localización : España
Re: Un simple parche de colores permite engañar a las cámaras de vigilancia con IA para que no detecten personas en una imagen.
Miér 24 Abr 2019, 23:41
Si es que solo hay que usar la cabeza un poco para darse cuenta del absurdo que pone en ese metro que dices (así como en muchos otros sitios):
"Esta estación esta dotada de camaras por su seguridad"
Vamos a ver:
- A un pasajero le roban la cartera tras pegarle un puñetazo, por ejemplo.
La cámara lo graba todo y se ve incluso la pestaña del delincuente. Y el revisador de grabaciones dice: ¡Oh, es Juanete Carteras, conocido raterillo de la policía!
Pues muy bien, pero el guantazo se lo ha llevado igual el pasajero, así como también se ha quedado sin cartera.
Incluso aún suponiendo que vean la cámara en directo y capten el momento "guantazo" y alguien grite: Seguridad, vayan al andén 18.
Incluso en directo el guantazo se lo lleva y su cartera vuela.
Vemos lo eficientes que son las cámaras "por nuestra seguridad".
Pero igual si hubiese vigilantes en persona suficientes, Juanete Carteras no se atrevería a delinquir. Porque sería atrapado rapidamente.
Así que a ver a qué seguridad se refieren con su cartelito.
"Esta estación esta dotada de camaras por su seguridad"
Vamos a ver:
- A un pasajero le roban la cartera tras pegarle un puñetazo, por ejemplo.
La cámara lo graba todo y se ve incluso la pestaña del delincuente. Y el revisador de grabaciones dice: ¡Oh, es Juanete Carteras, conocido raterillo de la policía!
Pues muy bien, pero el guantazo se lo ha llevado igual el pasajero, así como también se ha quedado sin cartera.
Incluso aún suponiendo que vean la cámara en directo y capten el momento "guantazo" y alguien grite: Seguridad, vayan al andén 18.
Incluso en directo el guantazo se lo lleva y su cartera vuela.
Vemos lo eficientes que son las cámaras "por nuestra seguridad".
Pero igual si hubiese vigilantes en persona suficientes, Juanete Carteras no se atrevería a delinquir. Porque sería atrapado rapidamente.
Así que a ver a qué seguridad se refieren con su cartelito.
- Contenido patrocinado
Permisos de este foro:
No puedes responder a temas en este foro.