منتديات فور يو القسم الرئيسي food and agriculture news Virgina Eubanks: “El Gobierno usa la tecnolog?a contra la clase obrera porque teme su
الريــم Senior Member

Una m?quina puede decidir si tienes derecho a recibir ayudas p?blicas, si se te concede un préstamo bancario o si debes tener acceso a una vivienda social. El uso de herramientas de Inteligencia Artificial (IA) que se alimentan de nuestros datos para automatizar complejas decisiones como estas es cada vez m?s habitual. Sin embargo, ese sistema tiene una v?ctima: los pobres.

Durante tres a?os, Virgina Eubanks, profesora asociada de Ciencia Pol?tica de la Universidad de Albany (Nueva York), investig? como en Estados Unidos el uso de algoritmos en los servicios de asistencia social, en el sistema judicial y en la vigilancia de barrios sirve para castigar y disciplinar a la clase trabajadora y a los sintecho. Un exhaustivo estudio que analiza como el progreso tecnol?gico est? acentuando la discriminaci?n y exclusi?n social de los m?s vulnerables. Un modelo que, como ella misma sufri?, se propaga hacia la clase media. ‘La automatizaci?n de la desigualdad’ (Capit?n Swing) se publica este lunes.

-Ignoramos a los pobres como si fueran algo ajeno a nosotros

-En EEUU pensamos que la pobreza solo afecta a una peque?a parte de la poblaci?n, y a gente con patolog?as, pero eso es emp?ricamente falso. M?s de la mitad de la poblaci?n caer? por debajo del umbral de la pobreza en su edad adulta y casi un 65% recurrir? a ayudas sociales. Los sistemas sociales que aceptamos construir para pobres cr?nicos, minor?as raciales, discapacitados, migrantes y marginados terminar?n atrap?ndonos.

-?Es lo que le sucedi? a usted?

-S?. Jason, mi pareja, fue apalizado por unos atracadores. Le causaron muchas heridas, una lesi?n muy grave en el cerebro y estrés postraum?tico. Una semana antes hab?amos contratado un nuevo seguro médico, pero lo cancelaron. Tengo la sospecha de que fue porque nos investigaron para saber si est?bamos enga?ando al seguro. Aunque unas semanas después reanudaron el servicio hemos descendido en la escala econ?mica porque él qued? discapacitado y no puede trabajar y yo estoy trabajando a tiempo parcial para cuidarlo. Ahora nosotros formamos parte de ese sistema de ayudas. Y no fue por tomar ninguna mala decisi?n.

M?s de la mitad de la poblaci?n caer? por debajo del umbral de la pobreza en su edad adulta







-?Este menosprecio al pobre ha crecido en paralelo a la animadversi?n al Estado del bienestar?

-La marginalizaci?n de los pobres no empez? con el neoliberalismo, eso ha estado aqu? desde hace mucho tiempo. Busqué cuando se empezaron a usar herramientas contras los pobres y llegué a 1601, cuando se estableci? la idea de que la pobreza es un fracaso moral. Tenemos la tendencia a descontextualizar esas tecnolog?as de vigilancia, pero han sido creadas por las pol?ticas y la cultura que arrastramos de antes.

-Los sistemas de IA se prueban en los barrios humildes. ?Se est? usando a los pobres como conejillos de indias?

-Para muchos de ellos, decir no a la asistencia social no es una opci?n. Si no tienes atenci?n médica ni ayuda alimentaria y un asistente ve que te falta comida en casa corres el riesgo de que manden a tus hijos a hogares de acogida. La clase trabajadora tiene mucho poder y el Estado usa esas tecnolog?as porque lo teme. Podr?as negarte a dar tus datos al sistema sanitario pero entonces te morir?as en la calle.

"Ninguna raz?n justifica negar a una ni?a de cinco a?os el tener acceso al servicio sanitario. Es una manera inhumana e inaceptable de organizar la sociedad"







Esas tecnolog?as terminan clasificando a los pobres entre buenos y malos.

Se ha asumido la austeridad, la idea de que no hay suficiente para todos, as? que se deben crear herramientas para hacer un racionamiento moral en el que se determine quién merece m?s las ayudas. En EEUU es muy diferente a Europa, donde hay un acuerdo b?sico de que hay derechos humanos y un suelo bajo el que nadie puede caer.

Uno de mis mayores miedos es que el uso de esa tecnolog?a de IA haga que ese cribaje entre buenos y malos parezca algo l?gico, razonable y justo, cuando nos deja colgados. De todas las familias con las que hablé, no hay ninguna raz?n leg?tima que justifique negar a una ni?a de cinco a?os el tener acceso al servicio sanitario. Es una manera inhumana e inaceptable de organizar la sociedad.

En Indiana el uso de algoritmos para repartir ayudas p?blicas termin? denegando err?neamente un mill?n de prestaciones. De no destaparse esos casos seguir?amos pensando que esas tecnolog?as son perfectas, que la m?quina nunca falla.

Tenemos un pensamiento m?gico con la tecnolog?a, confiamos irracionalmente en que sus decisiones son m?s fiables que las humanas. Pero estos a?os he visto a mucha gente darse cuenta de que eran err?neas y que los algoritmos arrastraban sesgos racistas y de clase.

Esas herramientas se usan pol?ticamente para desautorizar las decisiones de gente trabajadora, de minor?as raciales y mujeres. El problema es que cuando la decisi?n del algoritmo es diferente de la del trabajador que conoce la situaci?n de su barrio se termina priorizando la del algoritmo, y eso tiene mucho que ver con la raza y el género y nuestra desconfianza de los trabajadores sociales.

"Esas herramientas se usan pol?ticamente para desautorizar las decisiones de gente trabajadora, de minor?as raciales y mujeres"







Se?ala que esos sistemas dividen a la clase obrera. ?Dificulta eso su organizaci?n pol?tica?

En EEUU la oficina de asistencia social es una experiencia horrible, peligrosa, sucia, abarrotada y vigilada, pero también es un muy buen lugar para la organizaci?n porque se junta gente que est? cabreada y al hablar construyen redes de solidaridad. Siempre han llevado a revueltas y a la resistencia. Hay que facilitar el acceso a las ayudas sociales, pero esas tecnolog?as privan de ese contacto humano.

?Su uso responde entonces a la motivaci?n ideol?gica de reducir lo p?blico y reemplazar la pol?tica por el algoritmo?

La dise?adora del sistema de cribado de familias que se us? en el condado de Allegheny, en Pensilvania, dijo que cuando se desplieguen estos sistemas de datos se podr? eliminar totalmente la burocracia. Para muchos cient?ficos de datos se trata de una decisi?n de eficiencia, no pol?tica, pero a veces son muy ingenuos.

Uno de los mayores peligros de estos sistemas es que son pol?ticas que pretenden no serlo. Usar la tecnolog?a para hacer listas de quien merece ayuda o decidir d?nde van los recursos es una manera de decir que, como comunidad, no queremos lidiar con esas decisiones dif?ciles. En Los ?ngeles hay 66.000 personas sin hogar. Eso no se arregla con tecnolog?a. Debemos tener una discusi?n sobre nuestros valores, por qué permitimos que eso suceda y c?mo nos preparamos para renunciar a algo para arreglarlo.

"Uno de los mayores peligros de estos sistemas es que son pol?ticas que pretenden no serlo"







Otro peligro es que esos sistemas de IA crean una situaci?n de poder asimétrico, donde solo quien posee el algoritmo tiene el poder. ?Nos hace eso a?n m?s vulnerables?

Nos centramos en soluciones técnicas como auditar algoritmos, m?s transparencia o regular las compa??as tecnol?gicas, pero las familias con la que hablo, aunque no tengan conocimientos expertos de esos sistemas, entienden su impacto. Son buenas soluciones pero parciales, porque el problema se arraiga en c?mo explicamos la pobreza y c?mo valoramos las vidas de los otros. Y en este pa?s no hay un acuerdo de que todos los seres humanos tienen los mismos derechos.

Pero incluso quienes usan el algoritmo no entienden como llega a las conclusiones que extrae…

Cierto, lo he visto en casos en los que se acusa a un ciudadano de tener una deuda porque lo dice el algoritmo. El Estado no tiene pruebas de ello, pero como el ciudadano tampoco tiene pruebas para negarlo la justicia termina haciendo caso al Estado. En s?lo dos Estados he visto decenas de miles de casos as? y puede haber millones en todo el pa?s. Cuanto m?s se sofistican los algoritmos m?s importante es entender su funcionamiento. Sin embargo, no quiero que la gente piense que es algo tan complicado que no podemos combatirlo, porque hay maneras de detectarlo sin haber estudiado computaci?n.

En EEUU no se regula el uso de esas herramientas de IA porque se dice que frenan la innovaci?n tecnol?gica. ?Cree que la nueva legislaci?n europea permitir? un mayor respeto de los derechos humanos?

Estoy muy ilusionada con una regulaci?n que reconozca los usos inadecuados de estas herramientas. Prohibir los sistemas de reconocimiento facial es algo crucial. Pero, m?s all? de la vigilancia digital, estas tecnolog?as punitivas est?n ocurriendo en muchos lugares que la gente no ve, como los programas de asistencia p?blica.

Los algoritmos toman decisiones matem?ticas, no éticas. ?Puede haber progreso social si usamos datos sesgados que replican las injusticias del pasado?

Creo que la soluci?n no vendr? de la gente que crea esa tecnolog?a o de las agencias que la usan. El poder nunca cede sin una demanda. Estamos en un momento peligroso en el que dividimos entre pobres buenos, los que lo son por culpa de la pandemia, y los malos, los que ya lo eran antes. Pero este momento también nos permite repensar muchas cosas que nos parec?an naturales o inevitables. En Australia han duplicado la cantidad de ayuda que dan a la gente pobre por la pandemia, y antes de eso parec?a imposible hacerlo. La ciudadan?a debe presionar para lidiar con todos estos problemas.



أكثر...


Powered by vBulletin® Copyright ©2000 - 2024, Jelsoft Enterprises Ltd. منتديات فوريو
by : uc-4u
جميع الحقوق محفوظة منتديات فور يو