Предиктивная полиция

Автор Alina, 07.02.2022, 13:19

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

Alina

Можно ли предсказать, когда и где произойдет преступление?

https://www.bbc.com/news/business-46017239

Новое оружие в борьбе с преступностью — это не пистолет, электрошокер или перцовый баллончик, а данные. Но могут ли компьютерные алгоритмы действительно помочь снизить уровень преступности?

Представьте себе банду грабителей банков, отправляющихся на очередное ограбление, но обнаруживающих, что на углу их уже ждет вооруженный отряд быстрого реагирования.

Или представьте, что вы идете по темному переулку и чувствуете страх, а затем видите обнадеживающие синие огни полицейской машины, посланной следить за вами.

А теперь представьте, если бы все это стало возможным благодаря математике.

С тех пор, как в 1950-х годах был опубликован роман Филипа К. Дика «Особое мнение», который позже превратился в блокбастер с Томом Крузом, футуристы и философы работали с концепцией предотвратить «до преступления».

Это идея о том, что мы можем предсказать, когда произойдет правонарушение, и принять меры для его предотвращения.

Теперь искусственный интеллект и машинное обучение означают, что эта концепция перешла прямо со страниц научной фантастики в реальный мир.

Техническая фирма PredPol (сокращение от интеллектуальная полиция) утверждает, что ее алгоритмы анализа данных могут улучшить обнаружение преступлений на 10-50% в некоторых городах.

Для этого требуются годы исторических данных, включая тип, место и время преступления, и они объединяются с множеством других социально-экономических данных, которые затем анализируются с помощью алгоритма, изначально разработанного для прогнозирования афтершоков землетрясений.

Программное обеспечение пытается предсказать, где и когда произойдут конкретные преступления в течение следующих 12 часов, и алгоритм обновляется каждый день по мере поступления новых данных.

«PredPol был вдохновлен экспериментами, проведенными Калифорнийским университетом в сотрудничестве с Департаментом полиции Лос-Анджелеса», — говорит соучредитель PredPol и профессор антропологии Джефф Брантингем.

«Это исследование показало, что прогнозы, основанные на алгоритмах, могут предсказывать в два раза больше преступлений, а при использовании в полевых условиях предотвращать в два раза больше преступлений, чем существующая передовая практика».

Прогнозы отображаются на карте с помощью цветных полей, каждое из которых соответствует площади 500 квадратных футов (46 квадратных метров). Красные ящики классифицируются как «высокий риск», и офицерам рекомендуется проводить в них не менее 10% своего времени.

Вы не можете просматривать это вложение.

Профессор Брантингем говорит, что машинное обучение позволяет PredPol анализировать данные, делать выводы и устанавливать связи между большими объемами данных, с которыми аналитики-люди просто не справились.

Скептики говорят, что это лженаука, потому что анализ данных о преступлениях для принятия обоснованных решений о развертывании полиции не является чем-то новым.

Многие силы традиционно использовали «анализ горячих точек», когда прошлые правонарушения записываются и накладываются на карту, а офицеры концентрируются в этих областях.

Но PredPol и другие, работающие в этой области, такие как Palantir, CrimeScan и ShotSpotter Missions, говорят, что традиционный анализ горячих точек просто реагирует на то, что произошло вчера, а не предвидит, что произойдет завтра.

ПП и машинное обучение могут выявлять закономерности, которые мы раньше не замечали.

«Машинное обучение предоставляет набор подходов к выявлению статистических закономерностей в данных, которые нелегко описать стандартными математическими моделями или которые выходят за рамки естественных способностей человека-эксперта», — говорит профессор Брантингем.

Александр Бабута из группы исследований национальной безопасности и устойчивости в Королевском институте объединенных служб соглашается, говоря: «Ретроспективное картографирование горячих точек не делает различий между двумя типами «рискованных» мест, которые просто подвергаются большому количеству преступлений с течением времени, потому что они более привлекательны для преступников, например, небезопасные автостоянки и оживленные торговые районы, а также районы, где вероятность совершения преступления временно возросла из-за недавно произошедших преступных событий.

«Но технология прогностического полицейского машинного обучения делает это».

Полицейские, похоже, поддержали эту идею.

Программное обеспечение PredPol используют более 50 полицейских управлений в США, а также несколько подразделений в Великобритании. Полиция Кента, например, сообщает, что уличное насилие снизилось на 6% после четырехмесячного использования системы.

«Мы обнаружили, что модель невероятно точно предсказала время и место, где могут произойти эти преступления», — говорит Стив Кларк, заместитель начальника полицейского управления Санта-Крус.

«В тот момент мы поняли, что у нас есть что-то здесь».

Но у предиктивной полиции есть свои критики.

Фредерике Кальтойнер, руководитель программы данных в группе защиты гражданских прав Privacy International, задается вопросом, будут ли они также использоваться для прогнозирования насилия со стороны полиции и преступности белых воротничков или просто против сообществ, которые, по ее словам, уже маргинализированы.

«Мы уходим от невиновности до тех пор, пока ее вина не будет доказана, к миру, в котором люди невиновны до тех пор, пока не будут обнаружены подозрительными непрозрачными и проприетарными системами, которые может быть трудно, если не невозможно, оспорить», — говорит она.

Есть также опасения по поводу расовых и других предубеждений, скрытых в наборах данных. Полицейское управление Лос-Анджелеса, которое работало с Palantir над проектом по прогнозированию полицейской деятельности, подверглось критике со стороны местных групп активистов, обеспокоенных угрозами гражданским свободам и расовым профилированием.
Иллюзии это то, чего нет. Уже или еще?

Alina

Машинное обучение используют в камерах смартфонов, чтобы улучшить снимки, в интернет-магазинах — чтобы предложить кеды к джинсам. А еще — в полиции, чтобы предсказывать преступления. И это проблема

https://tass.ru/obschestvo/5941548

В фильме "Особое мнение" по одноименному рассказу Филипа Дика с убийствами покончено: полиция Вашингтона задерживает преступников еще до того, как те успели поднять на кого-нибудь руку. Иногда те даже еще не замыслили ничего дурного, а на пороге уже стоят люди в форме. Эксперимент в столице проходит успешно, и федеральные власти собираются внедрить систему по всей стране.

Наводки полицейским в "Особом мнении" давали три мутанта, которые в трансе видели образы будущего. Похожий сюжет разворачивается прямо сейчас, только в нем нет фантастических деталей: вместо провидцев полицейские прислушиваются к компьютерным программам, которые обрабатывают гору данных и строят прогнозы о возможных преступлениях. Такие системы стали называть предиктивной полицией.

Одни надеются, что предиктивная полиция улучшит работу органов правопорядка, сэкономит деньги и силы, искоренит предвзятость и произвол. Другие видят в ней угрозу гражданским свободам и считают, что компьютерные системы только усугубляют существующие проблемы.

Как работает предиктивная полиция
Компьютерные модели, прогнозирующие преступность, делятся на две группы. Программы первого типа определяют, кто с наибольшей вероятностью совершит преступление или, наоборот, станет жертвой. Они оценивают профили людей с учетом возраста, криминальной истории, данных о трудоустройстве, знакомств (например, через страницы в социальных сетях) и другой информации. Какие именно сведения для этого используются, зависит от разработчиков, а те не всегда раскрывают подробности.

В моделях второго типа главное — время и место, то есть где и когда может быть совершено преступление. Алгоритмы делят территорию города на маленькие зоны площадью несколько десятков метров — это может быть конкретный квартал или перекресток — и высчитывают вероятности на основании поступающих данных. Например, один из лидеров рынка, компания PredPol, строит прогнозы, опираясь на статистику сообщений об убийствах, кражах, ограблениях, угонах транспорта. Но также могут учитываться даже погода, часы работы окрестных баров и школ. Если программа считает, что риск совершения преступления высок, на место отправляют наряд полиции.

Оба подхода не новые. Еще в конце 1920-х годов в США стали применять статистические модели, чтобы решить, выпускать того или иного преступника из тюрьмы досрочно или оставить за решеткой. В 1970-х криминологи задумались, как среда, например плотная многоэтажная застройка, обуславливает преступность. А уже в следующем десятилетии американские полицейские вместо того, чтобы только гоняться за преступниками, занялись "проактивным" патрулированием мест, где с большой вероятностью стрясется что-нибудь неладное.

Разница в том, что в прежние времена расчеты проводили люди, а теперь их место постепенно занимают на вид беспристрастные самообучающиеся компьютеры с огромной вычислительной мощностью. Вдобавок современные предиктивные модели обрабатывают намного больше данных, чем раньше, и подчас эти данные обновляются на лету. Предполагается, что за счет этого прогнозы получаются более точными и, что немаловажно, дешевыми (компьютерная программа стоит меньше, чем штат аналитиков), — на первый взгляд, у предиктивной полиции одни преимущества.

Что говорят критики
Как это всегда бывает с Big Data и машинным обучением, результат напрямую зависит от качества и полноты данных. Технология упомянутой PredPol анализирует всего три параметра: о преступлениях какого типа поступали сообщения, где они совершены, когда и во сколько. Идея заключается в том, что преступность подобна землетрясениям: как за одним сейсмическим ударом следуют повторные толчки, так в одних и тех же местах время от времени нарушают закон. 

Критики указывают на то, что алгоритм PredPol способен с некоторой точностью предсказать, только где и когда о преступлении станет известно, а не где оно произойдет: по разным причинам люди не всегда сообщают о чем-то противозаконном, например из страха мести, порицания или депортации на родину. Жители мест, где не принято связываться с властями, могут ничего не выиграть от внедрения предиктивной полиции: они останутся невидимыми для алгоритмов.

Вдобавок может возникнуть петля обратной связи: если программа отправит полицейских в определенный район и там действительно будет зарегистрировано преступление, то в будущем полицейские будут наведываться в этот район все снова и снова. Чаще всего патрули ездят в районы бедняков, чернокожих и латиноамериканцев. Зная, что они находятся в "горячем" месте, полицейские могут с излишним рвением искать преступников — и кого-нибудь да найдут. Из-за этого дискриминация меньшинств только усилится.

Один из разработчиков PredPol Джеффри Брантинхэм (в статье он не сказал о своей связи с компанией, что противоречит научной этике) писал в ответ критикам, что это всего лишь умозрительные рассуждения и мысленные эксперименты. Компьютерные модели могут давать предвзятые результаты, но обычно алгоритмы обрабатывают данные по вызовам, а не по задержаниям, поэтому если петля обратной связи и возникнет, то затронет те места, откуда чаще всего звонят в полицию, а не конкретных людей или меньшинства в целом.

Как получается на деле?

Исследований эффективности предиктивной полиции не так уж много, вдобавок часто в них замешаны разработчики программ и полиция — люди заинтересованные. Одно такое исследование провел Джеффри Брантинхэм и его коллеги. По данным, которые им предоставила полиция Лос-Анджелеса, с системой PredPol патрули задерживали людей примерно вдвое чаще, чем по наводкам простых аналитиков. Но когда полицейские проводили больше задержаний, тогда и сообщений о преступлениях было больше, то есть нельзя сказать, что сотрудники органов сорвались с цепи. Также ученые не обнаружили предвзятость по отношению к этническим меньшинствам, хотя точнее было бы сказать, что с алгоритмом PredPol полицейские вели себя не более предвзято, чем обычно.

"Не более, чем обычно" — важная оговорка, которую не сделала команда Брантинхэма. В 2016 году исследователи из некоммерческой организации Human Rights Data Analysis Group (HRDAG) показали, что система PredPol может усилить перегибы, скрытые в данных. Чтобы проверить догадку, они прогнали через алгоритм статистику по преступлениям, связанным с наркотиками, в калифорнийском городе Окленд.

В одном случае исследователи воспользовались информацией из полицейских баз, а в другом — из системы здравоохранения. На основе статистики органов правопорядка система PredPol отправляла бы патрули в основном в районы, где полицейские и так бывают часто. Чернокожие были под подозрением алгоритма вдвое чаще белых, другие этнические меньшинства — в полтора раза. На самом же деле, по данным опросов, в Окленде белые принимают наркотики не реже остальных.

Изъян работы HRDAG — в том, что PredPol не анализирует наркопреступления. Во всяком случае, о них не говорится ни в исследовании Брантинхэма, ни на сайте компании. Но это не значит, что такую технологию не сделает кто-нибудь еще и что остальные предиктивные системы не дискриминируют людей по цвету кожи, полу или другому признаку.

В 2016 году журналисты сайта ProPublica раздобыли индивидуальные оценки риска совершения преступления для 7 тыс. человек из одного округа во Флориде. Оценки высчитываются алгоритмически и учитываются в судебных разбирательствах в нескольких американских штатах: от балла зависит сумма залога для подозреваемых и наказание для осужденных.

Во Флориде применяется программа компании Northpointe. Чтобы проверить ее эффективность, журналисты посмотрели, кто из этих 7 тыс. человек был осужден за уголовные преступления в последующие два года. Оказалось, что чернокожим она завышает оценки риска, а белым, наоборот, занижает. Для насильственных преступлений точность прогнозов составила всего 20%, а с учетом мелких правонарушений — 61%, то есть немногим выше, чем при подбрасывании монеты. Northpointe не согласилась с выводами, хотя сама руководствуется тем же показателем — рецидивизмом в течение двух лет после выставления оценки.

Чего не хватает предиктивной полиции?

Кроме сомнительной эффективности и предвзятости у предиктивной полиции есть много других проблем. Такие системы не всегда внедряются открыто. В начале 2018 года сайт The Verge опубликовал скандальное расследование о том, как мэр Нового Орлеана договорился с компанией Palantir об использовании ее программы в городской полиции. Сделку оформили как благотворительное пожертвование, чтобы избежать публичного согласования. Городу это ничего не стоило, но Palantir получила доступ к закрытым базам данных, где собраны адреса, номера телефонов, постановления судов, страницы жителей в социальных сетях и другие деликатные сведения. Когда о программе стало известно, ее свернули.

Система Palantir вычисляла людей, которые могут совершить насильственное преступление или стать его жертвой. В 2013 году похожая программа была запущена в Чикаго, только власти города этого не скрывали. Спустя три года аналитический центр RAND оценил, насколько она эффективна. В группу риска попали те, кого чаще всего задерживали вместе с людьми, которые позже были убиты. Логика тут простая: если ты попадал в неприятности с такими ребятами, значит, тоже подставляешься. Но в этом списке было всего три человека из 405, убитых в течение 12 месяцев. Даже если бы полиция пришла на помощь, 402 человека все равно бы погибли.

Полиция Чикаго ответила на выводы RAND, что ее новая предиктивная модель втрое точнее прежней, а в разработке находится еще более продвинутая версия. Но даже если это правда и полученные наводки помогли бы полицейским спасти жертв, число убийств в городе снизилось бы менее чем на 3%. А главное — даже тем троим, кто попал в группу риска, не помогли: они мертвы. Какой бы совершенной ни была предиктивная полиция, ее прогнозами еще нужно правильно воспользоваться, что-то предприняв.

Но что такое совершенная предиктивная полиция, неясно. Чего должны добиться разработчики: чтобы уровень преступности упал до нуля, как в рассказе "Особое мнение", или чтобы раскрываемость преступлений была стопроцентной? И как понять, что успехи — заслуга алгоритмов, а не полицейских и социальных служб? Наконец, нужны ли вообще компьютерные системы, чей механизм работы не всегда понятен даже создателям и которые могут сломать людям жизни?
Иллюзии это то, чего нет. Уже или еще?

Сергей В.

ЦитироватьМожно ли предсказать, когда и где произойдет преступление?
Как говорил Марк Твен:«Существуют три вида лжи: ложь, наглая ложь и статистика».  Это я к тому, что криминальные районы и без этой замечательной программы прекрасно известны. Зато теперь можно требовать расширения штатов сославшись на науку :) Вот только что в Осло отказали в УДО Брейвику, ну как такого монстра предскажешь? А колумбайнеру Галявиеву, по слухам, кто-то его выходку проплатил.

mrv

Вряд ли все эти цифровые упражнения помогут, реал слишком непредсказуем.

nvryz701

Цитата: Сергей В. от 07.02.2022, 13:47колумбайнеру Галявиеву, по слухам, кто-то его выходку проплатил.
Словечко колумбайнер здесь совсем не к месту.

Что кому проплатил?

УкуРуку

#5
Тема статистики с её аномалиями интересна, но вряд ли народу покажут. Должна бы быть карта криминальных событий, но мы её не видим, и никто о ней даже не говорит.