Хотя предотвратить каждое самоубийство невозможно, есть много вещей, которые могут помочь снизить риск. И некоторые из них находятся так близко, как ваш смартфон.
Системы здравоохранения, технологические компании и исследовательские институты изучают, как они могут помочь в профилактике самоубийств. Они стремятся использовать технологии в целом и искусственный интеллект (ИИ) в частности, чтобы уловить тонкие признаки риска самоубийства и предупредить человека о необходимости вмешательства.
"Технологии, хотя и не лишены проблем, предлагают невероятные возможности", - говорит Ребекка Бернерт, доктор философии, директор и основатель Исследовательской лаборатории по профилактике самоубийств при Медицинской школе Стэнфордского университета в Пало-Альто, штат Калифорния.
Например, Бернерт говорит, что если ИИ сможет отмечать пациентов из группы риска на основе их медицинских карт, то их лечащие врачи смогут лучше подготовиться к оказанию им помощи. Хотя специалисты по психическому здоровью специально обучены этому, исследования показывают, что среди людей, умерших от самоубийства, около 45% посещают своего лечащего врача в последний месяц жизни. Только 20% обращаются к специалисту по психическому здоровью.
Вот некоторые из технических достижений, которые находятся в разработке или уже происходят.
Подсказки по вашему голосу
Исследователи из Вустерского политехнического института в Вустере, штат Массачусетс, создают программу на основе искусственного интеллекта под названием EMU (Early Mental Health Uncovering), которая анализирует данные со смартфона, чтобы оценить риск самоубийства пользователя телефона.
Эта технология все еще находится в стадии разработки. Возможно, она станет частью медицинского приложения, которое вы сможете загрузить на свой телефон - возможно, по предложению вашего медицинского работника.
После того как вы получите все необходимые разрешения, приложение будет использовать искусственный интеллект для мониторинга риска самоубийства через ваш телефон. Среди включенных функций - возможность говорить в голосовой анализатор приложения, используя предоставленный сценарий или разрешив приложению записывать фрагменты телефонных разговоров. Приложение может определить тонкие особенности голоса, которые могут указывать на депрессию или суицидальные мысли.
"Существуют известные характеристики голоса, которые человек не может определить, но которые ИИ может определить, потому что он был обучен этому на больших массивах данных", - говорит психолог Эдвин Будро, доктор философии. Он является заместителем председателя по исследованиям на кафедре неотложной медицины в Медицинской школе Умасс Чан.
"Он может взять голос и все эти другие источники данных и объединить их, чтобы сделать надежный прогноз о том, является ли ваше настроение депрессивным и были ли у вас суицидальные мысли", - говорит Будро, который не имеет финансовой доли в компании, создающей это приложение. "Это как биопсия телефона".
Данные смартфона, с разрешения пользователя, могут быть использованы для отправки предупреждений самим пользователям телефона. Это может побудить их обратиться за помощью или пересмотреть свой план безопасности. Или, возможно, это может предупредить медицинского работника человека.
В настоящее время приложения не требуют одобрения правительства для подтверждения своих заявлений, поэтому если вы используете какое-либо приложение, связанное с предотвращением самоубийств, обсудите это со своим терапевтом, психиатром или врачом.
Обмен опытом
Google работает над тем, чтобы предоставить людям, подверженным риску самоубийства, такие ресурсы, как Национальная телефонная линия по предотвращению самоубийств. Компания также поделилась своим опытом в области ИИ с The Trevor Project, горячей линией по предотвращению самоубийств ЛГБТК, чтобы помочь организации выявлять звонящих с наибольшим риском и быстрее оказывать им помощь.
Когда человек в кризисной ситуации обращается в The Trevor Project по СМС, чату или телефону, он отвечает на три вопроса, прежде чем его соединят с кризисной службой поддержки. Google.org Fellows, благотворительная программа Google, помогла проекту "Тревор" использовать компьютеры для определения слов в ответах на вопросы анкеты, которые были связаны с самым высоким, самым неотвратимым риском.
Когда люди в кризисной ситуации используют некоторые из этих ключевых слов в ответах на вопросы о приеме в The Trevor Project, их звонок перемещается в начало очереди на получение поддержки.
Культура жесткости
Возможно, вы уже знаете, что самоубийства особенно опасны для военных и полицейских. И вы, несомненно, слышали о самоубийствах среди работников здравоохранения во время пандемии.
Но есть еще одна сфера деятельности, в которой высок уровень самоубийств: строительство.
По данным CDC, вероятность самоубийства среди строителей в два раза выше, чем среди людей других профессий, и в 5 раз выше, чем вероятность самоубийства в результате производственной травмы. Высокий уровень физических травм, хронические боли, нестабильность работы и социальная изоляция из-за необходимости ездить на большие расстояния на работу - все это может сыграть свою роль.
JobSiteCare, телемедицинская компания, предназначенная для строителей, в экспериментальном порядке применяет высокотехнологичные методы борьбы с самоубийствами в этой отрасли. Компания предлагает телемедицинскую помощь строителям, получившим травмы на стройплощадках, с помощью планшетов, хранящихся в шкафчике в медицинском вагончике на стройплощадке. Теперь она расширяет эту помощь, включая психиатрическую помощь и кризисное реагирование.
Рабочие могут получить помощь в считанные секунды с помощью планшета в вагончике. Они также имеют доступ к круглосуточной горячей линии и постоянному психиатрическому обслуживанию через телемедицину.
"Телепсихическое здоровье стало одной из самых успешных историй в телемедицине", - говорит Дэн Карлин, доктор медицины, основатель и генеральный директор JobSiteCare. "В строительстве, где ваша работа заставляет вас переезжать с места на место, телемедицина будет следовать за вами, куда бы вы ни отправились".
Приложение "План безопасности при самоубийстве
Приложение Jaspr призвано помочь людям после попытки самоубийства, начиная с того момента, когда они еще находятся в больнице. Вот как это работает.
Медицинский работник начинает использовать приложение вместе с пациентом в больнице. Вместе они разрабатывают план безопасности, который поможет предотвратить будущие попытки самоубийства. План безопасности - это документ, который медицинский работник разрабатывает вместе с пациентом, чтобы помочь ему справиться с будущим кризисом психического здоровья и стрессами, которые обычно провоцируют суицидальные мысли.
Пациент загружает приложение Jaspr "Домашний компаньон". Они могут получить доступ к своему плану безопасности, инструментам для преодоления кризиса на основе предпочтений, изложенных в их плане безопасности, ресурсам для получения помощи во время кризиса и ободряющим видео от реальных людей, которые пережили попытку самоубийства или потеряли близкого человека из-за самоубийства.
Что, если ИИ ошибается?
Всегда есть вероятность, что ИИ неправильно определит, кто подвержен риску самоубийства. Он хорош лишь настолько, насколько хороши данные, на которых основан его алгоритм.
Ложное срабатывание" означает, что кто-то определен как находящийся в группе риска, но это не так. В данном случае это означает, что кто-то ошибочно отнесен к группе риска по самоубийству.
В случае "ложноотрицательного результата" человек, находящийся в группе риска, не отмечается.
Риск вреда от ложноотрицательных и ложноположительных результатов слишком велик, чтобы использовать ИИ для определения риска самоубийства до того, как исследователи убедятся в его эффективности, говорит Будро.
Он отмечает, что Facebook использовал ИИ для выявления пользователей, которые могут подвергаться непосредственному риску самоубийства.
Meta, материнская компания Facebook, не ответила на просьбу доктора прокомментировать использование ИИ для выявления и устранения риска самоубийства среди своих пользователей.
Согласно веб-сайту, Facebook позволяет пользователям сообщать о сообщениях, включая видеозаписи Facebook Live, которые могут указывать на то, что человек находится в кризисной ситуации, связанной с самоубийством. ИИ также сканирует сообщения и, если считает это целесообразным, делает возможность сообщить о сообщении более заметной. Независимо от того, сообщают ли пользователи о сообщении, ИИ также может сканировать и помечать сообщения и видеоролики в Facebook. Сотрудники Facebook рассматривают посты и видео, отмеченные пользователями или искусственным интеллектом, и решают, как с ними поступить.
Они могут связаться с человеком, создавшим сообщение, и посоветовать ему обратиться к другу или в кризисную службу помощи, такую как Национальная линия по предотвращению самоубийств, которая в этом месяце запустила свой трехзначный номер 988. Пользователи могут обращаться в кризисные службы непосредственно через Facebook Messenger.
В некоторых случаях, когда сообщение указывает на срочную опасность, Facebook может связаться с полицейским управлением, находящимся поблизости от пользователя Facebook, который может оказаться в кризисной ситуации. Затем к пользователю направляется полицейский для проверки состояния здоровья.
Социальная медиаплатформа TikTok, представители которой также отказались от интервью для этой статьи, но предоставили справочную информацию по электронной почте, следует аналогичным протоколам. Они включают в себя связь пользователей с горячими линиями по кризисным ситуациям и сообщение о срочных сообщениях в правоохранительные органы. TikTok также предоставляет номера горячих линий и другие кризисные ресурсы в ответ на поисковые запросы, связанные с самоубийством на платформе.
Вопросы конфиденциальности
Возможность того, что платформы социальных сетей будут связываться с полицией, вызвала критику со стороны экспертов по конфиденциальности, а также экспертов по психическому здоровью, таких как Будро.
"Это ужасная идея", - говорит он. "Facebook развернул ее без того, чтобы пользователи знали, что ИИ работает в фоновом режиме и каковы будут последствия, если ИИ что-то определит. Отправка полицейского может только усугубить ситуацию, особенно если вы относитесь к меньшинству. Помимо того, что это может смутить или потенциально травмировать, это отбивает у людей желание делиться информацией, потому что плохие вещи случаются, когда вы делитесь".
По соображениям конфиденциальности алгоритм, который может отправлять сообщения Facebook в правоохранительные органы, запрещен в Европейском союзе, сообщает Journal of Law and the Biosciences.
Последствия для людей, ошибочно отнесенных к группе высокого риска, объясняет Будро, зависят от того, как организация взаимодействует с человеком, якобы находящимся в группе риска. Потенциально ненужный звонок медицинского работника может не нанести такого вреда, как ненужный визит полиции.
Если вы или кто-то из ваших знакомых думает о самоубийстве, вы можете связаться с Национальной линией по предотвращению самоубийств. В США с 16 июля 2022 года вы можете позвонить, отправить смс или написать в чат по номеру 988, чтобы связаться с Национальной линией по предотвращению самоубийств. Вы также можете позвонить по первоначальному номеру 800-273-8255. Помощь доступна 24 часа в сутки 7 дней в неделю на английском и испанском языках.