Общая тетрадь

вестник школы гражданского просвещения

 
 

Оглавление:

К читателю

Семинар

Тема номера

Вызовы и угрозы

Гражданское общество

Точка зрения

Исторический опыт

СМИ и общество

In Memoriam

Nota bene

Номер № 75 (3-4) 2018

Демократия в цифровом обществе*

Томас де ла Куадра-Сальседо, профессор Университета им. Карла III, Мадрид

Для меня вызовы цифрового общества — это вопрос актуального настоящего и одновременно тема для размышлений о будущем. Особенность общества цифровых технологий в том, что мы в нем уже живем. Вот у меня в кармане пиджака смартфон — наверняка многие носят такие же на руке. Даже наши кредитные карточки являются вызовом — и очень серьезным — для нашего будущего, о котором мы должны задуматься.

Начну с примера. В США со времен правления Обамы существует программа создания искусственного интеллекта. И один из ее участников — испанский исследователь Рафаэль Юсте, профессор неиробиологии Колумбииского университета и соруководитель Института ̆ наук о мозге Фонда Фреда Кавли. Недавно он выиграл крупный грант NIH* на проведение новаторских научных исследований, углубляющих наше понимание процессов зарождения в мозге мыслей, сознания, эмоций — величайших загадок науки. И чтобы разобраться в устройстве мозга, ученым нужны новые инструменты, методы, позволяющие регистрировать активность групп нейронов и их связей — синапсов. Новые знания несут вполне практический смысл и вместе с тем ставят проблему моральных вызовов.

В ноябрьском выпуске журналa Nature за 2017 год (это один из самых авторитетных общенаучных журналов) опубликован ряд статей, посвященных моделированию квантовых систем с помощью квантовых компьютеров. В частности, исследователи производят картирование мозга и создают интерфейс, который соединяет мозг и компьютер. Зачем?

Допустим, кто-то в результате травмы потерял способность двигаться. Помочь ему может теперь некий управляемый силой мысли интерфейс, который выполнит функцию, скажем, руки и подаст человеку стакан воды. На первый взгляд это здорово, просто великолепно! Но стоит подумать о последствиях. Вот изобрели такой нейрокомпьютерный интерфейс, отвечающий за обмен между нейронами и электронным устройством при помощи специальных имплантированных электродов (имплантов), вживляемых в мозг с помощью нанотехнологии.

Хорошо, вживите тогда и мне такой имплант. Я ничем не болею, но, пожалуйста, снабдите меня таким устройством, чтобы повысить мои возможности — чтобы я был еще способнее. Считается, что это приемлемо для солдат, для людей, действующих в экстремальных условиях. Однако наверняка это будет использоваться и в преступных целях.

Связь нашего мозга с искусственным интеллектом, когда речь идет о помощи при заболеваниях, — это прекрасно. Но повышение потенциала человека ставит морально-этические вопросы, и это уже вызов. Такой «апгрейд» не каждый человек сможет оплатить. И значит, одни будут владеть такими исключительными возможностями, а другие — нет. Скажем, кто-то может сдать университетский экзамен или занять высокую должность благодаря «усовершенствованию мозга». Будет ли это обществом равных?

Конечно, то, о чем я сейчас говорю, произойдет не очень скоро. Но эксперименты показывают, что это возможно. Есть такая программа — ее создала компания IBM, она способна обработать медицинские карты всех госпиталей и больниц, проанализировать диагнозы пациентов и на этой основе разработать протокол лечения. Как должен вести себя при этом врач? Следовать тому, что ему велит искусственный интеллект, или все-таки делать то, что ему подсказывает врачебный опыт? Представьте себе, что пациент умрет, на врача подают в суд и объявляют виновным. А вдруг тогда врачи станут делать только то, что скажет робот, не желая принимать на себя ответственность? Известно, что у любого машинного интеллекта могут быть ошибки или сбои. И что тогда? Не хочу здесь останавливаться на том, как будут выходить из создавшейся ситуации программисты, добывая нужную информацию и обрабатывая ее для создания соответствующего алгоритма, программы, в которых тоже неизбежны неточности и ошибки. Поэтому человек, используя машинные знания, статистическую базу, конечно, не может обойтись без ценностных суждений. Иначе говоря, очень важно правильно оценивать информацию, предоставленную искусственным интеллектом, сопоставляя ее со знаниями, которыми обладает человеческий разум, и сверяя с морально-этическими нормами.

В связи с этим не случайно возникают философские школы — в Соединенных Штатах и других странах, проповедующие трансгуманизм. Их создатели говорят о человеке как об «усиленном» (машинным интеллектом) существе. Например, не так давно вышла книга Homo Deus израильского историка Юваля Ноя Харари, который пишет, что политика уже не нужна, она стала лишней. Нужно просто заложить в машину данные и обработать их посредством некой программы для получения проектов экономического развития. То есть постгуманисты считают, что машина все решит за нас и мы можем отказаться в том числе от парламента. Выходит, что не важно, голосуете вы за республиканцев или за демократов на выборах, — все это результат биохимических процессов, происходящих в вашей голове.

Повторю: о мире новых технологий и цифрового общества стоит задуматься потому, что становится возможным возникновение сверхлюдей. Преодолевая в себе животное начало, мы становимся людьми, но тут речь идет о появлении сверхлюдей. Ведь не исключено, что машинный разум начнет сам принимать решения и подсказывать нам, что мы должны делать. Насколько мы готовы к такому миру? Это произойдет, как я сказал, не завтра, но, весьма вероятно, довольно скоро. Какие последствия это влечет за собой для общества и для мира? В одной из статей упомянутого журнала Nature обсуждается тема: стоит ли доверять политикам установление рамок морали в вопросе чрезвычайной важности? Например, картирование работы нашего мозга может быть использовано для контроля над сознанием людей, а хакеры неизбежно будут пытаться завладеть этой возможностью.

Возникают и другие вопросы, относящиеся к нашей повседневной жизни. Например, люди настолько вовлечены в технологии, что, когда едут в машине, уже не могут обойтись без смартфона и навигатора, подсказывающего маршрут. Не говоря уже о тех, кто настолько зависит от гаджетов, что вообще теряет способность думать самостоятельно. Авторы статьи отмечают, что люди, которых лечили от депрессии методом коррекции мозговых процессов, перестают понимать, кто они, теряют понимание своей идентичности. До какой степени киберинтерфейс может заставить нас утратить способность моральной оценки, если машина будет нам диктовать, что хорошо и что плохо?

Как реагировать на это? Существуют ли какие-то границы дозволенного? Насколько можно повышать потенциал солдата на войне, до какого предела можно использовать его связь с дронами, то есть с разного рода машинным продолжением биологической системы под названием «человек»? Это лишь несколько вопросов, которые касаются человека и его идентичности. И мы, безусловно, должны занять здесь какую-то четкую позицию.

Есть также вопросы, касающиеся взаимоотношений цифрового общества и демократии, цифровизации рынка. Цифровое общество, несомненно, имеет преимущества, которыми следует воспользоваться, но и заключает в себе огромный риск. И этот риск мы должны осознать, чтобы понять, как мы его воспринимаем и как к нему относимся.

Первый аспект: цифровое общество уже оказывает влияние на демократию. Каким образом? Например, один из наиболее заметных инструментов в формировании свободного мнения — влияние цифрового общества на прессу. Многие люди больше не покупают газеты, они считывают информацию с экранов своих технических устройств. Но поскольку люди существуют в социальных сообществах, то они получают информацию, исходящую от определенных социальных групп. Раньше посредником между тем, что в действительности происходит, и тем, кто доводит это до нашего сведения, была пресса, а теперь чуть ли не каждый сам может быть репортером.

Представьте себе, что у нас за углом вулкан. У нас есть смартфоны, мы можем сделать фото и рассказать всем о появлении вулкана. Мы отдаем себе отчет в том, что распространяем информацию, которую считаем важной. Но ведь сколько при этом публикуется глупых и малозначимых новостей!

Все мы сообщаем и передаем информацию, но она не обработана и может оказаться дезинформацией. Тем не менее в связи с полученной информацией формируется мнение, а мнение можно выразить, например, в Twitter. Пусть это будет даже Twitter Трампа, но он размещает скорее не информацию, а мнение. Мнение может быть ценным, но в огромном потоке мнений человек уже не находит ответа на свои запросы. Раньше, купив газету, читатель выбирал и покупал определенное мнение, потому что верил тому или другому изданию. А когда мы потребляем новость, источником которой был неизвестно кто, и этот кто-то создает мнение, которому мы следуем, — это уже проблема.

Вы, наверное, читали, что Facebook пришел к соглашению с британской компанией Cambridge Analytica, согласно которому подписчики Facebook приняли участие в психологическом тестировании за вознаграждение. Около 270 тысяч американцев дали согласие на участие в акции, и компания получила доступ к данным 50 миллионов пользователей. Эти данные обрабатывались, и пользователи получали настроенную на их психологический профиль информацию, повлиявшую в том числе и на электоральное поведение в США. Так сегодня происходит манипуляция демократией!

Традиционные СМИ, которые давали в этом смысле определенную гарантию, теряют свою роль, постепенно уступая ее социальным сетям. В настоящее время 10 крупнейших кампаний на бирже Соединенных Штатов по рыночной капитализации — Facebook, Amazon, Google, Microsoft... А раньше это были строительные компании, страховые агентства, банки. Произошла смена парадигмы — почему? Потому что главной ценностью стали большие объемы данных (big data). Раньше говорили о нефти, как о черном золоте. Теперь это золото — большие данные. Конечно, это не просто их поток, а данные, переработанные искусственным интеллектом, которые могут раскрыть кому-то, кто в этом заинтересован, наши предпочтения и готовить на их основе препарированную информацию, включая фейковые новости.

Таким образом, людьми можно манипулировать. Именно об этом говорят события, связанные с Brexit, с ситуацией в Каталонии и др., что, конечно, оказывает влияние на демократию, формируя общественное мнение, которое раньше формировалось крупными и ответственными традиционными средствами массовой информации.

Второй аспект. Цифровое общество создало такую модель, которую можно назвать «агора» — по названию места (обычно это была рыночная площадь) в древнегреческих полисах, где собирались граждане для принятия решений. В демократических обществах всегда стоял вопрос, что лучше: ассамблея, собрание, где каждый, выражая свое мнение, голосует самостоятельно, или представительная демократия, когда кто-то избирается, чтобы затем принимать решение за других. Вариант агоры практически невозможно осуществить, когда речь идет о миллионах граждан, поэтому со временем демократия обрела форму представительной системы.

Но в цифровом обществе вновь появляется возможность создать некую агору, потому что сейчас не требуются большие городские площади для собраний. Мы можем обмениваться информацией и мнениями на площадках социальных сетей. Например, в Соединенных Штатах в период правления Барака Обамы достаточно было собрать 100 тысяч подписей на сетевых платформах, чтобы государственный секретарь или министр ответил на запрос или петицию.

Один из вопросов, который всех очень волнует, включая Европу, — прозрачность государственного управления. Люди заставляют свои мэрии и свои правительства информировать их о своей работе. Сегодня благодаря Интернету есть программы, которые помогают систематизировать информацию, предоставляя сведения, например, об эффективности работы того или иного муниципалитета. А также возможность сравнительного анализа работы сразу нескольких муниципалитетов, результаты которого поддаются интерпретации и позволяют демократии совершенствоваться. Но есть и примеры сетевых форумов, которые объединяют людей, с чем-то не согласных. Они не предлагают решений, на таких форумах не говорится о том, что делать. Гораздо важнее здесь количество подписчиков, количество читателей — то есть то, что называют сегодня популизмом в политике.

И еще один важный аспект, имеющий отношение к проблемам демократии — обработка и корыстное использованиебольших массивов информации (big data). Именно это, как я говорил, позволило такой компании, как Cambridge Analytica, фактически обслуживать пропаганду, применяя таргетирование целевой аудитории в социальных сетях. Но есть и другие аспекты этой проблемы. Когда в конце XIX века в США готовилось антитрестовское, антимонопольное законодательство, все считали, что крупные корпорации-монополисты, обладающие огромной властью, представляют опасность для демократии.

Это понимание было не только у конкурентов — был риск и для самой демократии, потому что монополизация парализует способность правительств к руководству. А когда вопрос стоит в мировом масштабе, опасность тем более велика. Так вот, в прошлом году в Испании Google был подвергнут санкциям. Почему? Потому что один из его сервисов предлагал сравнить цены. А цены, указанные в Google Покупки (предоставляющем возможность выбора товаров из разных интернет-магазинов в одном каталоге и сравнения цен между предложениями), всегда были ниже тех, что предлагал в среднем рынок, то есть Google фактически манипулировал рынком, за что и был оштрафован.

Сейчас в мире семь компаний, которые лидируют в сфере работы с большими данными. Они продают свои продукты, манипулируя ценами или используя информацию в тех же целях, что и Google.

Итак, если нет конкуренции, если у кого-то есть решающее преимущество по сравнению с другими игроками, то это искажает не только парадигму свободного рынка, но и политическую сферу, интересы отдельной личности. И в конечном счете влияет на основы и принципы демократии, включая базовые права человека. Мы в Европе очень щепетильно относимся к правам человека и поэтому приняли новый регламент о защите персональных данных. Согласно этому регламенту, принятому 25 мая 2018 года, права граждан нарушаются, если нарушено так называемое право на забвение, как это произошло с гражданином Испании Марио Костехо Гонсалесом.

Суть дела такова: 15 лет назад было опубликовано сообщение о продаже дома Гонсалеса за долги. Однако спустя 15 лет оказалось, что он не может заниматься бизнесом, хотя за прошедшие годы решил все свои проблемы. В том числе и инцидент, который был связан с его браком, разводом и т.д., но люди об этом помнили. И тогда он обратился в агентство, связанное с защитой данных, с требованием к Google убрать из своей базы компрометирующую его информацию. В мае 2014 года судом Люксембурга было принято решение удалить фамилию Гонсалеса из базы данных. А теперь это не только персональное постановление суда, но и норма общеевропейского регламента о праве на забвение.

В соответствии с регламентом о защите данных в ЕС посторонним лицам нельзя, например, использовать информацию без ясно выраженного согласия собственника ID-профиля. Допустим, на молодого человека, родившегося в бедном квартале, родители которого развелись и он прогуливал школу, наложили штрафы за неоплаченный проезд. По совокупности этих сведений получается, что такого человека не стоит брать на работу. Однако что говорит новый регламент? Нельзя принимать решения, исходя из информации, содержащейся в профиле. Следовательно, нужно все же как-то решать проблемы, связанные с доступом к индивидуальным профилям, поскольку прогноз о том, каким работником будет тот или иной человек, может легко сделать машина, исходя из алгоритма и используя личные данные.

Цифровое общество ставит перед нами сверхзадачи и новые вызовы, и новое европейское законодательство уже отреагировало на эту проблему. Я не знаю, и думаю, никто не знает, правильно ли мы поступили, поскольку наличие профилей не стоит исключать из рассмотрения и не всегда они являются решающим фактором. Но тем не менее теперь европейцы по крайней мере знают, какого рода данные не будут основой для принятия решений о приеме на работу.

Остаются, однако, проблемы с основными правами человека, потому что при выполнении некоторых рутинных процедур у вас спрашивают, где вы родились, где учились, какие на вас налагались штрафы. Например, речь может идти о вашей страховке. Теоретически ваши данные секретны и не являются публичными, но на их основе можно сделать выводы о рисках, связанных в том числе и с вашим здоровьем. Возможно, вы никогда не заболеете, но, используя новые технологии и данные о ваших прежних заболеваниях, можно сделать определенные выводы не в вашу пользу. В конечном итоге все это может негативно сказаться на индивидуальной свободе, демократии и солидарности в целом.

Хочу подчеркнуть, что мы не можем остановить движение к цифровому обществу, потому что его возможности огромны, но процесс требует неусыпной гражданской бдительности.

Фернан Леже. Зеркало. 1925