С помощью Дерека Робертсона
Робокоп ближайшего будущего мог бы проводить дни, собирая документы.
Компании и бывшие полицейские стремятся использовать генеративный искусственный интеллект, чтобы сократить время на составление полицейских протоколов — трату времени, которую, как утверждают полицейские, можно было бы лучше использовать при расследовании преступлений.
Компания 365 Labs со штаб-квартирой в Луизиане, которая разрабатывает программное обеспечение для правоохранительных органов, и PoliceReports.ai, основанная бывшим офицером полиции Флориды, представляют технологию, которая позволяет писать полицейские отчеты за считанные секунды.
Они работают по-разному, но все следуют основной предпосылке: полиция может поделиться подробностями происшествия в чате и получить назад юридически допустимый документ, написанный ИИ.
Полицию привлекают те же обещания, которые сделали генеративный ИИ привлекательным в других отраслях: технология предлагает быстрый способ создать чистую копию за считанные секунды, избавляя офицеров от одной из самых больших проблем в их работе. А Опрос 2019 года показал, что полиция тратит на оформление документов до 3 часов в смену..
Но правительственные учреждения и ученые уже бьют тревогу, указывая, что эта идея также напрямую влияет на две слабости технологии: ее склонность совершать ошибки и даже фальсифицировать факты; и риск утечки конфиденциальной информации.
Большие языковые модели, такие как ChatGPT, печально известны ошибками. часто описывается как «галлюцинации». Некоторые из примеров более высокого уровня привели к обвинения в клевете и увековечивание расистских теорий. Эти ошибки, хотя они и безобидны во многих контекстах, могут иметь последствия, меняющие жизнь, если их использовать в правоохранительных органах, говорит Крис Гиллиард, исследователь конфиденциальности и научный сотрудник Just Tech в Совете по исследованиям в области социальных наук.
«Если вы хотите использовать его, чтобы рассказать своему ребенку сказку о ниндзя на ночь в стиле рэпа Эминема, конечно», — сказал Жильяр. «Но когда это вопрос жизни и смерти или потенциально имеет долгосрочные последствия, это не кажется хорошим применением».
В своих маркетинговых материалах 365 Labs утверждает, что полицейские отчеты, составленные с помощью ИИ, могут фактически повысить точность по сравнению с отчетами, написанными офицерами, поскольку в них меньше ошибок в написании и грамматических ошибках. По словам компании, программное обеспечение автоматически помещает такие детали, как имена и местоположения, в шаблоны. На веб-сайте PoliceReports.ai говорится, что его искусственный интеллект составляет точные отчеты, но также отмечается, что важно проверять и проверять все результаты.
365 Labs и PoliceReports.ai не ответили на запросы о комментариях.
Хотя федеральных правил о том, как правительственные учреждения должны использовать ИИ, не существует, многие предлагаемые рекомендации по использованию ИИ в государственном секторе подчеркивают необходимость человеческого анализа. Нью-Джерси руководящие принципы использования правительством генеративного ИИ предупреждает, что контент, написанный ИИ, не следует использовать без тщательного редактирования, а также отмечает, что его нельзя использовать для каких-либо деликатных тем.
В отчете Интерпола о влиянии ChatGPT на правоохранительные органы также подчеркивается, что ИИ не соответствует стандартам точности и беспристрастности, необходимым для полицейских отчетов.
«Основная ответственность за точность и качество полицейских отчетов всегда должна лежать на сотрудниках полиции, имеющих необходимую подготовку и опыт», — заявил он. в докладе говорится.
Требование проверки человеком поднимает вопрос о том, сколько времени на самом деле сэкономило бы программное обеспечение, если бы оно создавало новую задачу для полицейских в дополнение к составлению самих отчетов.
Джонатан Парэм, бывший директор полиции в Рэуэй, штат Нью-Джерси, заявил, что не поддерживает полицейский отчет, в основном написанный ИИ, назвав эту концепцию «тревожной». Он выразил обеспокоенность тем, что отчеты, написанные ИИ, не будут включать нюансы, которые может описать только человек, и что даже небольшая ошибка или упущение может сделать весь отчет недействительным.
Но он не против использования ИИ для экономии времени. Вместо этого он предложил использовать генеративный ИИ больше как помощника, а не как писателя, создав бота ChatGPT, которого он назвал «Помощник составителя отчетов в полиции». Он отмечает, что у многих офицеров есть проблемы с орфографией и грамматикой, они допускают опечатки, которые могут поставить под угрозу все дело.
По его словам, его бот ChatGPT задает офицерам ряд вопросов, связанных с инцидентом, а затем систематизирует детали, исправляя грамматические и орфографические ошибки, но никогда не пишет отчеты полностью.
«ИИ никогда не должен заменять офицера — он должен повышать его оперативный опыт», — сказал Пархэм.
Он сказал, что его приложение для чата вызвало неоднозначную реакцию со стороны полиции, которая опробовала его: молодые офицеры рекламировали его преимущества, а офицеры-ветераны – против этой технологии.
Министр торговли Джина Раймондо обещает добиться доминирования в полупроводниковой промышленности США может потребоваться продление действия Закона о CHIPS и науке.
Как Брендан Борделон из POLITICO сообщил вчера для подписчиков Pro Раймондо сказала генеральному директору Intel Пэт Гелсингер на мероприятии, что она «затаив дыхание работает как можно быстрее, чтобы внедрить CHIPS One», но «все сказанное, я подозреваю, что так и должно быть — вы звоните. Это CHIPS Два или что-то еще — постоянные инвестиции… если мы собираемся возглавить мир — смотрите, мы опустились довольно далеко. Мы отвлеклись от мяча».
Соединенные Штаты предоставили отечественной полупроводниковой промышленности субсидию в размере 53 миллиардов долларов в рамках закона CHIPS, принятого в 2022 году. Intel является получателем субсидии по этому законопроекту, которая будет использована для строительства огромного комплекса микрочипов за пределами Колумбуса, штат Огайо, США. подробности которого, по словам Гелсингера, будут объявлены «очень скоро».
Международная группа исследователей искусственного интеллекта обнаружила что, хотя в последние годы большие языковые модели совершили большой скачок, все еще существуют как технические, так и этические препятствия, которые отчаянно необходимо устранить.
В препринт В нем рассматриваются три основных семейства LLM — GPT OpenAI, LLaMA Meta и PaLM Google — исследователи под руководством руководителя машинного обучения Snap Шервина Минаи оценивают текущее состояние технологии и дают некоторые рекомендации разработчикам на будущее. Они приходят к выводу, что, хотя «темпы инноваций в этой области скорее увеличиваются, чем замедляются», еще многое предстоит сделать.
Возьмем, к примеру, контекст: в описанном примере для того, чтобы LLM мог эффективно рекомендовать пользователю хороший фильм, ему необходимо много данных о пользователе. Но модели, основанные на внимании, доминирующая форма LLM на данный момент, «очень неэффективны для более длительных контекстов», что может стимулировать дополнительные исследования различных архитектур ИИ.
Они также подчеркивают, что «поскольку LLM все чаще используются в реальных приложениях, их необходимо защищать от потенциальных угроз, чтобы предотвратить их использование для манипулирования людьми или распространения дезинформации», над чем, по их мнению, в настоящее время работают.
Оставайтесь на связи со всей командой: Бен Шрекингер ([email protected]); Дерек Робертсон ([email protected]Мохар Чаттерджи (род.[email protected]); Стив Хойзер ([email protected]); Нэйт Робсон (англ.[email protected]); Даниэлла Чеслоу (англ.[email protected]); и Кристин Муи ([email protected]).
Если вам отправлен этот информационный бюллетень, вы можете регистр и читать наша миссия по предоставленным ссылкам.