Искусственный интеллект этапы угрозы стратегии: Искусственный интеллект. Этапы. Угрозы. Стратегии

Содержание

Искусственный интеллект. Этапы. Угрозы. Стратегии (Бостром,…

Бостром, Н.

Что случится, если машины превзойдут людей в интеллекте? Они будут помогать нам или уничтожат человеческую расу? Можем ли мы сегодня игнорировать проблему развития искусственного интеллекта и чувствовать себя в полной безопасности? В своей книге Ник Бостром пытается осознать проблему, встающую перед человечеством в связи с перспективой появления сверхразума.

Полная информация о книге

  • Вид товара:Книги
  • Рубрика:Искусственный интеллект. Нейронные сети. Робототехника
  • Целевое назначение:Научно-популярное издание для взрослых
  • ISBN:978-5-00057-810-0
  • Серия:Несерийное издание
  • Издательство: Манн, Иванов и Фербер
  • Год издания:2016
  • Количество страниц:491
  • Тираж:1500
  • Формат:70х90/16
  • УДК:004.8
  • Штрихкод:9785000578100
  • Доп. сведения:пер. с англ. С. Филина
  • Переплет:обл.
  • Сведения об ответственности:Ник Бостром
  • Код товара:2788207

Книга философа Ника Бострома «Искусственный интеллект. Этапы. Угрозы. Стратегии»: Чтение: Библиотека: Lenta.ru

Ник Бостром — шведский философ, профессор Оксфордского университета, сооснователь Всемирной ассоциации трансгуманистов и директор созданного в 2005 году в Оксфорде Института будущего человечества. Он пытается осознать проблему, встающую перед человечеством в связи с перспективой появления сверхразума. Что случится, если машины превзойдут людей в интеллекте? Будут ли они помогать нам или уничтожат человечество? Можем ли мы сегодня игнорировать проблему развития искусственного интеллекта и чувствовать себя в полной безопасности? Ник Бостром описывает сложные научные вопросы о будущем человечества доступным языком.

С разрешения издательства «Манн, Иванов и Фербер» «Лента.ру» публикует отрывок из книги Ника Бострома «Искусственный интеллект».

Сверхразум сможет обладать гигантскими возможностями, чтобы согласно своим целям менять будущее. Но каковы эти цели? Каковы устремления? Будет ли зависеть степень мотивации сверхразума от уровня его интеллекта?

Выдвинем два тезиса. Тезис об ортогональности гласит (с некоторыми исключениями), что можно комбинировать любой уровень интеллекта с любой целью, поскольку интеллект и конечные цели представляют собой ортогональные, то есть независимые, переменные. Тезис об инструментальной конвергенции гласит, что сверхразумные действующие силы, или агенты, — при самом широком разнообразии своих конечных целей — тем не менее будут преследовать сходные промежуточные цели, поскольку на это у всех агентов будут одинаковые инструментальные причины. Рассмотренные вместе, эти тезисы помогут нам яснее представить, каковы намерения сверхразумного актора.

В книге уже звучало предостережение от ошибки антропоморфизма: не следует проецировать человеческие качества на возможности сверхразумного агента. Мы повторим свое предупреждение, лишь заменив слово возможность на слово мотивация.

Прежде чем развивать дальше первый тезис, проведем небольшое предварительное расследование на тему безграничности всего спектра возможных умов. В этом абстрактном, почти космическом, пространстве возможного человеческий разум составляет ничтожно малый кластер.

Выберем двух представителей человеческого рода, которые согласно общему мнению являются диаметрально противоположными личностями. Пусть это будут Ханна Арендт и Бенни Хилл. Различие между ними мы, скорее всего, оценим как максимальное. Но сделаем так лишь потому, что наше восприятие целиком регулируется нашим же опытом, который, в свою очередь, полагается на существующие человеческие стереотипы (до известной степени мы находимся под влиянием и вымышленных персонажей, созданных опять-таки человеческой фантазией для удовлетворения все того же человеческого воображения).

Однако, изменив масштаб обзора и взглянув на проблему распределения разума сквозь призму безграничного пространства возможного, мы будем вынуждены признать, что эти две личности не более чем виртуальные клоны. Во всяком случае с точки зрения характеристики нервной системы Ханна Арендт и Бенни Хилл фактически идентичны.

Предположим, головной мозг и той и другого поместили бы рядом в тиши какого-нибудь музея, — увидев эту экспозицию, мы сразу скажем, что эти двое принадлежали одному и тому же виду. Более того, кто из нас смог бы определить, какой мозг Ханны Арендт, а какой — Бенни Хилла? Если нам удалось бы изучить морфологию и того и другого головного мозга, то мы окончательно убедились бы в их фундаментальном сходстве: одинаковая пластинчатая архитектоника коры; одни и те же отделы мозга; одинаковое строение нервной клетки мозга — нейрона с его нейромедиаторами одной и той же химической природы.

Фото: David Duprey / AP

Вопреки тому, что разум человека практически сопоставим с неразличимой точкой, плавающей в безграничном космосе предполагаемых разумных жизней, сложилась тенденция проецировать человеческие свойства на самые разнообразные инопланетные сущности и искусственные разумные системы. Этот мотив великолепно прокомментировал Элиезер Юдковский все в той же работе «Искусственный интеллект как позитивный и негативный фактор глобального риска»:

«Во времена расцвета популярной научной фантастики, довольно дешевого свойства, обложки журналов пестрели картинками, на которых очередное инопланетное чудовище — в народе более известное как «пучеглазый монстр» — в очередной раз куда-то тащило очередную красотку в обязательно задранном платье — причем красотка была нашей, земной, женщиной.

Похоже, все художники уверовали, что негуманоидные пришельцы с совершенно иной эволюционной историей непременно должны испытывать сексуальное влечение к прекрасным представительницам человеческого рода. Скорее всего, художники, изображавшие все это, даже не задавались вопросом, а будет ли вообще гигантский жук чувствителен к прелестям наших женщин. Ведь по их представлениям любая полуобнаженная женщина просто по определению сексуально привлекательна, то есть испытывать к ней желание являлось неотъемлемой чертой мужественных представителей человеческого рода.

Все художническое внимание было направлено на задранное или порванное платье, меньше всего их заботило, как устроено сознание гигантских насекомообразных. И это составляло главную ошибку художников. Не будь одежды изодраны, — думали они, — женщины выглядели бы не столь соблазнительно для пучеглазых монстров. Жаль только, сами пришельцы так и не взяли этого в толк».

Пожалуй, искусственный интеллект своими побудительными мотивами еще меньше будет напоминать человека, чем зеленый чешуйчатый пришелец из космоса. Инопланетяне — биологические создания (не более чем предположение), появившиеся в результате эволюционного процесса, в силу чего от них можно ожидать мотивации, в какой-то степени типичной для эволюционировавших существ.

Поэтому не будет ничего удивительного, если окажется, что мотивы поведения разумного пришельца продиктованы довольно простыми интересами: еда, воздух, температура, опасность телесных увечий или уже свершившиеся травмы, расстройства здоровья, хищничество, секс и выведение потомства. Если инопланетяне принадлежат какому-нибудь разумному социуму, у них могли бы развиться мотивы, связанные с сотрудничеством и конкуренцией. Подобно нам они проявляли бы преданность своему сообществу, возмущались бы тунеядцами и, кто знает, были бы не лишены тщеславия, беспокоясь о своей репутации и внешнем виде.

Думающим машинам по природе своей, в отличие от инопланетян, нет смысла заботиться о подобных вещах. Вряд ли вы сочтете парадоксальной ситуацию, если появится какой-нибудь ИИ, чьим единственным предназначением, например, будет: подсчитать песчинки на пляжах острова Боракай; заняться числом π и представить его, наконец, в виде обыкновенной десятичной дроби; определить максимальное количество канцелярских скрепок в световом конусе будущего.

На самом деле гораздо проще создать ИИ, перед которым будут стоять однозначные цели, а не навязывать ему нашу систему ценностей, наделяя машину человеческими свойствами и побуждениями. Сами решите, что сложнее: написать программу, измеряющую, сколько знаков после запятой в числе π уже посчитано и сохранено в памяти, или создать алгоритм, достоверно учитывающий степень достижения абсолютно значимой для человечества цели, скажем, такой, как мир всеобщего благоденствия и всеобщей справедливости?

Сколь ни печально, но человеку легче написать код упрощенного, лишенного всякого значения целенаправленного поведения машины и обучить ее, как выполнять поставленную задачу. Скорее всего, такую судьбу выберет для зародыша ИИ тот программист, который будет сосредоточен лишь на желании «заставить ИИ работать», причем как можно быстрее (программист, явно не озабоченный, чем именно придется заниматься ИИ, кроме того что демонстрировать сногсшибательное разумное поведение). Скоро мы вернемся к этой важной теме.

Интеллектуальный поиск инструментально оптимальных планов и стратегий возможен в случае любой цели. Интеллект и мотивация в некотором смысле ортогональны. Представим их в виде двух осей координат, задающих граф, в котором каждая точка представляет логически возможного интеллектуального агента. Правда, эта картинка потребует несколько уточнений.

Например, для системы, не наделенной разумом, было бы невозможно иметь слишком сложные мотивации. Чтобы мы могли с полным основанием говорить, что, мол, такой-то агент «имеет» такой-то набор мотиваций, — эти мотивации должны составлять функционально-интегрированную систему вместе с процессом принятия решений, который налагает определенные требования на память, вычислительную мощность и, возможно, уровень интеллекта.

У интеллекта, способного самопреобразовываться, скорее всего, будут наблюдаться ограничивающие динамические характеристики. И то сказать: если обучившаяся модифицировать самое себя думающая машина вдруг испытает острое желание стать глупой, то довольно быстро она перестанет быть интеллектуальной системой. Однако наши замечания никак не отменяют основной тезис об ортогональности интеллекта и мотивации. Представляю его на ваше рассмотрение.

Интеллект и конечные цели ортогональны: более или менее любой уровень интеллекта может, в принципе, сочетаться с более или менее любой конечной целью.

Это положение может выглядеть спорным из-за своего кажущегося сходства с некоторыми постулатами, хотя и относящимися к классической философии, но до сих пор вызывающими много вопросов. Постарайтесь воспринять тезис об ортогональности в его более узком смысле — и тогда он покажется вполне достоверным.

Обратите внимание, тезис об ортогональности говорит не о рациональности или здравомыслии, но исключительно об интеллекте. Под интеллектом мы понимаем здесь навыки прогнозирования, планирования и сопоставления целей и средств в целом. Инструментальная когнитивная эффективность становится особенно важной чертой, когда мы начинаем разбираться в возможных последствиях появления искусственного сверхразума. Даже если использовать слово рациональный в таком смысле, который исключает признание рациональным сверхразумного агента, подсчитывающего максимальное количество скрепок, это ни в коем случае не исключает наличие у него выдающихся способностей к инструментальному мышлению, способностей, которые имели бы огромное влияние на наш мир.

В соответствии с тезисом об ортогональности у искусственных агентов могут быть цели, глубоко чуждые интересам и ценностям человечества. Однако это не означает, что невозможно предсказать поведение конкретных искусственных агентов — и даже гипотетических сверхразумных агентов, когнитивная сложность и характеристики производительности которых могут сделать их в некоторых аспектах «непроницаемыми» для человеческого анализа. Есть минимум три способа, благодаря которым можно подступиться к задаче прогнозирования мотивации сверхразума.

Фото: Richard Brian / Reuters

1. Предсказуемость за счет проектирования. Если мы можем предположить, что программисты способны разработать систему целеполагания сверхразумного агента так, что он будет последовательно стремиться достичь цели, заданной его создателями, тогда мы в состоянии сделать хотя бы один прогноз: этот агент будет добиваться своей цели. Причем чем более разумным будет агент, тем с большей интеллектуальной изобретательностью он начнет к ней стремиться. Поэтому еще до создания агента мы могли бы предсказать что-то о его поведении, если бы знали что-то о его создателях и целях, которые они собираются ему установить.

2. Предсказуемость за счет наследования. Если прототипом цифрового интеллекта непосредственно служит человеческий разум (что возможно при полной эмуляции головного мозга человека), тогда цифровому интеллекту могут быть присущи мотивы его человеческого прототипа. Такой агент мог бы сохранить некоторые из них даже после того, как его когнитивные способности разовьются настолько, что он станет сверхразумом. Но в таких случаях следует соблюдать осторожность. Цели агента легко могут быть искажены в процессе загрузки данных прототипа или в ходе их дальнейшей обработки и совершенствования — вероятность подобного развития зависит от организации самой процедуры эмуляции.

3. Предсказуемость за счет наличия конвергентных инструментальных причин. Даже не зная детально конечных целей агента, мы в состоянии сделать некоторые выводы о его более близких целях, анализируя инструментальные причины самых разнообразных возможных конечных целей при широком выборе ситуаций. Чем выше когнитивные способности агента, тем более полезным становится этот способ прогнозирования, поскольку чем более разумным является агент, тем больше вероятность, что он распознает истинные инструментальные причины своих действий и будет действовать так, чтобы при любой вероятной ситуации добиться своих целей. (Для правильного понимания следует заметить, что могут существовать недоступные нам сейчас инструментальные причины, которые сам агент обнаружит, лишь достигнув очень высокого уровня интеллекта, — это делает поведение сверхразумного агента менее предсказуемым.)

Ник Бостром — Искусственный интеллект. Этапы. Угрозы. Стратегии читать онлайн бесплатно

Ник Бостром

Искусственный интеллект. Этапы. Угрозы. Стратегии

Nick Bostrom

Superintelligence

Paths, Dangers, Strategies

Научные редакторы М. С. Бурцев, Е. Д. Казимирова, А. Б. Лаврентьев

Издано с разрешения Alexander Korzhenevski Agency

Правовую поддержку издательства обеспечивает юридическая фирма «Вегас-Лекс»

This book was originally published in English in 2014. This translation is published by arrangement with Oxford University Press. Publisher is solely responsible for this translation from the original work and Oxford University Press shall have no liability for any errors, omissions or inaccuracies or ambiguities in such translation or for any losses caused by reliance thereon.

© Nick Bostrom, 2014

© Перевод на русский язык, издание на русском языке, оформление. ООО «Манн, Иванов и Фербер», 2016

* * *

Эту книгу хорошо дополняют

Теория игр

Авинаш Диксит и Барри Нэлбафф

Brainiac

Кен Дженнингс

Удовольствие от x

Стивен Строгац

Предисловие партнера

…У меня есть один знакомый, – сказал Эдик. – Он утверждает, будто человек – промежуточное звено, необходимое природе для создания венца творения: рюмки коньяка с ломтиком лимона.

Аркадий и Борис Стругацкие. Понедельник начинается в субботу

Компьютеры, а точнее алгоритмы, опирающиеся на непрерывно растущие вычислительные мощности, лучше людей играют в шахматы, шашки и нарды. Они очень неплохо водят самолеты. Они смогли пройти тест Тьюринга, убедив судей в своей «человечности». Однажды таксист в Дублине – городе, где расположены европейские штаб-квартиры многих глобальных IT-компаний, – сказал мне, что приветствует бурное развитие технологического сектора своей страны, но потом с сожалением добавил: «Одна беда – из-за этих умных ребят довольно скоро таксисты будут не нужны». Автомобили без водителей, управляемые компьютерами, уже проходят испытания на обычных дорогах в нескольких странах. По мнению философа Ника Бострома, чью книгу вы держите в руках, – все это звенья одной цепи и довольно скоро из-за развития компьютерных технологий нам всем, человеческому роду, может прийти конец.

Автор считает, что смертельная угроза связана с возможностью создания искусственного интеллекта, превосходящего человеческий разум. Катастрофа может разразиться как в конце XXI века, так и в ближайшие десятилетия. Вся история человечества показывает: когда происходит столкновение представителя нашего вида, человека разумного, и любого другого, населяющего нашу планету, побеждает тот, кто умнее. До сих пор умнейшими были мы, но у нас нет гарантий, что так будет длиться вечно.

Ник Бостром пишет, что если умные компьютерные алгоритмы научатся самостоятельно делать еще более умные алгоритмы, а те, в свою очередь, еще более умные, случится взрывной рост искусственного интеллекта, по сравнению с которым люди будут выглядеть приблизительно как сейчас муравьи рядом с людьми, в интеллектуальном смысле, конечно. В мире появится новый, хотя и искусственный, но сверхразумный вид. Неважно, что ему «придет в голову», попытка сделать всех людей счастливыми или решение остановить антропогенное загрязнение мирового океана наиболее эффективным путем, то есть уничтожив человечество, – все равно сопротивляться этому у людей возможности не будет. Никаких шансов на противостояние в духе кинофильма про Терминатора, никаких перестрелок с железными киборгами. Нас ждет шах и мат – как в поединке шахматного компьютера «Дип Блю» с первоклассником.

За последнюю сотню-другую лет достижения науки у одних пробуждали надежду на решение всех проблем человечества, у других вызывали и вызывают безудержный страх. При этом, надо сказать, обе точки зрения выглядят вполне оправданными. Благодаря науке побеждены страшные болезни, человечество способно сегодня прокормить невиданное прежде количество людей, а из одной точки земного шара можно попасть в противоположную меньше чем за сутки. Однако по милости той же науки люди, используя новейшие военные технологии, уничтожают друг друга с чудовищной скоростью и эффективностью.

Подобную тенденцию – когда быстрое развитие технологий не только приводит к образованию новых возможностей, но и формирует небывалые угрозы, – мы наблюдаем и в области информационной безопасности. Вся наша отрасль возникла и существует исключительно потому, что создание и массовое распространение таких замечательных вещей, как компьютеры и интернет, породило проблемы, которые было бы невозможно вообразить в докомпьютерную эру. В результате появления информационных технологий произошла революция в человеческих коммуникациях. В том числе ею воспользовались разного рода киберпреступники. И только сейчас человечество начинает постепенно осознавать новые риски: все больше объектов физического мира управляются с помощью компьютеров и программного обеспечения, часто несовершенного, дырявого и уязвимого; все большее число таких объектов имеют связь с интернетом, и угрозы кибермира быстро становятся проблемами физической безопасности, а потенциально – жизни и смерти.

Именно поэтому книга Ника Бострома кажется такой интересной. Первый шаг для предотвращения кошмарных сценариев (для отдельной компьютерной сети или всего человечества) понять, в чем они могут состоять. Бостром делает очень много оговорок, что создание искусственного интеллекта, сравнимого с человеческим разумом или превосходящего его, – искусственного интеллекта, способного уничтожить человечество, – это лишь вероятный сценарий, который может и не реализоваться. Конечно, вариантов много, и развитие компьютерных технологий, возможно, не уничтожит человечество, а даст нам ответ на «главный вопрос жизни, Вселенной и всего такого» (возможно, это и впрямь окажется число 42, как в романе «Автостопом по Галактике»). Надежда есть, но опасность очень серьезная – предупреждает нас Бостром. На мой взгляд, если вероятность такой экзистенциальной угрозы человечеству существует, то отнестись к ней надо соответственно и, чтобы предотвратить ее и защититься от нее, следует предпринять совместные усилия в общемировом масштабе.

Завершить свое вступление хочется цитатой из книги Михаила Веллера «Человек в системе»:

Когда фантастика, то бишь оформленная в образы и сюжеты мысль человеческая, долго и детально что-то повторяет – ну так дыма без огня не бывает. Банальные голливудские боевики о войнах людей с цивилизацией роботов несут в себе под шелухой коммерческого смотрива горькое зернышко истины.


Nick Bostrom / Ник Бостром — Спикер

Один из наиболее значимых мыслителей современности, Ник Бостром, меняет наше видение общей картины мира – как постоянно совершенствуемый искусственный интеллект и другие технологии будут менять человечество, и как наши настоящие действия влияют на будущее.

 

Ник Бостром – профессор Оксфордского университета, где он является директором-основателем Института будущего человечества. Это уникальный исследовательский центр, где лучшие умы в области вычислительной техники и компьютеров, математики, философии, экономики и техники размышляют о будущем воздействии технологий на человечество, о глобальных приоритетах, возможности глобальных катастроф в будущем и о возможностях преобразований.

 

Также является директором Стратегического исследовательского центра по изучению искусственного интеллекта. Задача центра – исследовать, как грядущая революция искусственного интеллекта машин изменит общество и экономику. Его книга на эту тему «Искусственный интеллект. Этапы. Угрозы. Стратегии» (Superintelligence: Paths, Dangers, Strategies), изданная в 2014 году в Oxford University Press, вошла в список бестселлеров New York Times и изменила тональность разговоров в мире о будущем искусственного интеллекта.

 

Обладает академическими знаниями по теоретической физике, вычислительной нейробиологии, по основам теории вероятности, а также по философии.

 

Лауреат премии Eugene R. Gannon Award, которая каждый год вручается одному ученому в мире за достижения в области философии, математики, в области искусств и других гуманитарных наук и в области естественных наук. Журнал Foreign Policy дважды включил Ника Бострома в список 100 лучших мыслителей планеты (Top 100 Global Thinkers). По версии журнала Prospect, Бостром – один из 15 лучших мыслителей планеты во всех областях, самый молодой и наиболее высоко оцененный философ-аналитик.

 

Темы презентаций:

 

Современное состояние и будущее искусственного интеллекта

 

Своей книгой «Искусственный интеллект» (Oxford University Press, 2014), вошедшей в список бестселлеров New York Times, Ник Бостром изменил мировой взгляд на грядущую революцию искусственного интеллекта, революцию машин. Книга послужила стимулом для исследовательской работы в мире и глубоко повлияла на взгляды многих ведущих практиков. В этом выступлении (очень наглядном) Бостром говорит о новых достижениях, которые произошли в сфере искусственного интеллекта с момента издания книги. Как директор созданного в Оксфордском университете Стратегического исследовательского центра по изучению искусственного интеллекта, который сотрудничает с мировыми ведущими специалистами в области искусственного интеллекта и с исследователями и учеными в этой области в США и Великобритании, Бостром имеет уникальную возможность осознать вероятные последствия того, что может стать наиболее важным технологическим переворотом в истории человечества. (степень насыщенности презентации техническими деталями и соотношение «короткие термины-более длинные технические термины» можно изменить в соответствии с потребностями и возможностями аудитории)

 

Будущее человечества

 

В этой презентации Ник Бостром предлагает мысленно уменьшить масштаб и посмотреть на наш мир в целом, увидеть большую целостную картину – осознать ключевые переходные периоды в истории, изменившие условия жизни людей, представить себе возможные перспективы технологических преобразований, угрозу самому существованию человечества и эпоху пост-человечества, которая, возможно, наступит в будущем. Речь также пойдет и о роли, которую в этом, возможно, сыграет искусственный интеллект машин и достижения в области биомедицины. В этой презентации (с демонстрацией наглядных выразительных слайдов) Ник Бостром использует материалы, накопленные им за два десятилетия работы во многих, связанных с этими проблемами, областях, в том числе свои книги «Антропическая необъективность» (Anthropic Bias), «Риск глобальной катастрофы» (Global Catastrophic Risk), «Усовершенствование человека» (Human Enhancement) и, наконец, бестселлер New York Times «Искусственный интеллект. Этапы. Угрозы. Стратегии» (Superintelligence: Paths, Dangers, Strategies). Более подробная информация об этой деятельности Ника Бострома представлена еженедельником New Yorker (http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificialintelligence-nick-bostrom).

 

 

Беседа с профессором Ником Бостромом

 

Ник Бостром приглашает аудитории к разговору (возможно участие модератора) – попробовать проанализировать любую из множества тем, касающихся масштабной целостной картины Человечества, тенденций развития технологий, возможных рисков и опасностей, и вероятных перспектив будущего нашей цивилизации. Подобный формат дает аудитории возможность напрямую общаться с ученым-мыслителем, который исследовал и обдумывал эти вопросы в течение двадцати лет. Как директор-основатель Института будущего человечества Оксфордского университета, профессор Бостром возглавляет группу из почти двадцати ученых-исследователей в области математики, компьютерной и вычислительной техники, философии и инженерии, занимающихся серьезными научными исследованиями в области, в которой до этого преобладали ораторы, стремившиеся всего лишь эмоционально воздействовать на аудиторию, и так называемые «бизнес-футуристы».

В результате данной презентации у аудитории расширяются границы понимания и познания глобальных вопросов бытия и, что не менее значимо, слушатели испытывают огромное интеллектуальное наслаждение: после встречи они будут продолжать размышлять и обсуждать эти проблемы. (диапазон затрагиваемых тем можно, в пределах разумного, корректировать в соответствии с интересами конкретной аудитории)

 

 

Макростратегия

 

Как сегодняшние действия влияют на результаты долговременных перспективных планов? Что именно надо делать для достижения конкретных долгосрочных целей (например, бескорыстно принести как можно больше пользы)? Скрыто ли будущее завесой хаоса и непредсказуемости? Неужели мы не имеем представления о долговременных последствиях наших действий? Или, может, существуют некие конкретные средства воздействия-рычаги, применив которые, мы вправе рассчитывать на получение в будущем значимых и предсказуемых результатов?           В данной презентации Ник Бостром, профессор Оксфордского университета, автор бестселлеров и директор Института будущего человечества в наглядной яркой форме делится своими идеями о том, как мыслить системно для получения положительных результатов в условиях глубочайшей неопределенности и непредсказуемости, и скрытых определяющих факторов нашего мира.

 

 

Технологические тенденции и революции: Становимся умнее

 

Революция эпохи неолита (сельскохозяйственная) и промышленная революция больше всего повлияли на условия жизни человечества. Сегодня, возможно, мы приближаемся к эпохе третьей, технологической революции – переходу в эпоху искусственного интеллекта. Профессор Бостром рассматривает различные направления сегодняшних технологических исследований: создание «суперинтеллекта» — искусственного интеллекта, превосходящего человеческий во многих областях, в том числе усиление биомедицинских когнитивных функций; исследовательская деятельность учреждений, изучающих теорию познания; достижения в области создания искусственного интеллекта. При этом Бостром показывает реальную картину того, что скрыто за искаженной, вводящей нас в заблуждение, информацией в назойливой рекламе и СМИ. Профессор Бостром возглавляет группу из 20 выдающихся ученых: специалистов в компьютерной и вычислительной технике, математиков, инженеров и философов, работающих в уникальном Институте будущего человечества Оксфордского университета. Цель деятельности Института – изменить глобальное представление о будущем технологий. Бостром – автор бестселлера New York Times «Искусственный интеллект» (Superintelligence) (Oxford University Press, 2014), широко признан как один из наиболее значимых «мыслителей в области технологий» в мире в наше время.

В зависимости от предпочтений и запросов аудитории данная презентация может сделать акцент на общее глобальное видение проблемы или же сосредоточиться на более близких нам по времени технологических достижениях и разработках, значимых для развития бизнеса.

Искусственный интеллект. Этапы. Угрозы. Стратегии. Ник Бостром. 2014. (Прочая образовательная литература)

Пожаловаться на книгу

Автор: Ник Бостром

Жанр: Прочая образовательная литература

Серия: Отсутствует

Год: 2014

Что случится, если машины превзойдут людей в интеллекте? Они будут помогать нам или уничтожат человеческую расу? Можем ли мы сегодня игнорировать проблему развития искусственного интеллекта и чувствовать себя в полной безопасности? В своей книге Ник Бостром пытается осознать проблему, встающую перед человечеством в связи с перспективой появления сверхразума, и проанализировать его ответную реакцию.

На русском языке публикуется впервые.

Метки: Полная безопасность Ответная реакция Русский язык Искусственный интеллект Искусственный интеллект

Предлагаем Вам скачать ознакомительный фрагмент произведения «Искусственный интеллект. Этапы. Угрозы. Стратегии» автора Ник Бостром в электронном виде в формате FB2 или TXT. Также можно скачать произведение в других форматах, таких как RTF и EPUB (электронные книги). Советуем выбирать для скачивания формат FB2 или TXT, которые в настоящее время поддерживаются практически любым мобильным устроиством (в том числе телефонами / смартфонами / читалками электронных книг под управлением ОС Андроид и IOS (iPhone, iPad)) и настольными ПК. Книга издана в 2014 году.

Сохранить страничку в социалках/поделиться ссылкой: Скачать ознакомительный фрагмент в разных форматах (текст предоставлен ООО «ЛитРес»)
FB2TXTRTFEPUBЧитать книгу «Искусственный интеллект. Этапы. Угрозы. Стратегии» онлайн
Читать онлайнЗакрыть читалкуЛегально скачать полную версию произведения в элетронном виде (а так же заказать печатную книгу) «Искусственный интеллект. Этапы. Угрозы. Стратегии» можно в книжном интернет магазине Литрес
Купить и скачать

Похожие книги

Показать еще

Smart Reading — Искусственный интеллект. Этапы. Угрозы. Стратегии

NoraMusic / Smart Reading

00:00 / 30:04

Продолжительность:

30:04

Видео

Треки исполнителя

00:00 / 32:53

00:00 / 26:30

00:00 / 37:02

00:00 / 30:59

00:00 / 11:45

00:00 / 07:47

00:00 / 26:46

00:00 / 19:43

00:00 / 22:33

00:00 / 29:34

00:00 / 05:08

00:00 / 31:20

00:00 / 07:02

00:00 / 11:07

00:00 / 09:17

Похожие треки

00:00 / 02:32

00:00 / 04:46

00:00 / 02:40

00:00 / 03:03

00:00 / 02:46

00:00 / 03:30

00:00 / 02:21

00:00 / 02:41

00:00 / 03:21

00:00 / 03:42

00:00 / 01:57

00:00 / 05:00

00:00 / 02:15

00:00 / 03:16

00:00 / 02:31

Ник Бостром «Искусственный интеллект. Этапы. Угрозы. Стратегии»

Боятся ли люди искусственного интеллекта? Не особенно. Ну, кроме беспокойства насчет рабочих мест, анонимности и дипфейков. Когда мы говорим об ИИ сейчас, мы имеем в виду узкоспециализированные системы, умеющие лучше нас решать определенный класс задач, но далекие от реального интеллекта человеческого уровня. Но круто было бы, если бы такой ИИЧУ был, да? Или нет.

Книга философа Ника Бострома как раз о том, почему к ИИЧУ нужно относиться настороженно, чем его появление нам грозит и почему к этому нужно готовиться уже сейчас. Он рассматривает этапы развития ИИ до сегодняшнего дня и возможные сценарии того, как события будут развиваться дальше, каким образом и какие типы ИИ могут появиться, чем это нам грозит, как мы можем попытаться добиться от ИИЧУ, чтобы он работал на благо человечества и при этом не убил нас (одно другому не мешает), каковы верные стратегии для государств и коммерческих компаний, занимающихся разработкой ИИ. Очень интересно и глубоко.

Вначале читается легко и полно до восторга («таким должен быть нонфикшн!»), хотелось сравнить книгу с музеем, в котором экспозиция выстроена таким образом, что ты не пропустишь ни одной картины, увидишь все и в нужном порядке (я очень нервничаю в музеях, если оказываюсь в зале более чем с одним выходом).

Потом становится сложнее, приходится думать, вникать в формулы, перечитывать, лазать в другие источники за уточнениями. Но это того опредленно стоит. Пусть совершенно неясно, как применить эти знания прямо сейчас, но оптика, которая появляется после прочтения книги, позволяет смотреть на будущее мира намного более осознанно.

Для меня в этой книге есть и важный побочный эффект: это крутой учебник по тому, как продуктивно думать о весьма неопределенных вещах, как оценивать то, что казалось бы нельзя оценить, как делать допущения и не забывать про них, как делать прогнозы и рассматривать возможные ветви развития, оценивать риски, а главное — как формулировать цели, желания, граничные условия.

Лучшая нон-фикшн книга последних трех лет.

А если вы не хотите читать всю книгу (а она требует некоторой работы над собой), подумайте над этим (если вы связаны с IT, подумайте дважды):

Однако если относительно безопасными стандартные современные ПО делает не высокая надежность, а ограниченные возможности, то непонятно, как они могут стать образцом для создания безопасного сверхразума.

Ник Бостром «Искусственный интеллект. Этапы. Угрозы. Стратегии»

Интересно, что пока я читала Ника Бострома, Иван Замесин написал о книге «Life 3.0—возможные варианты развития Artificial General Intelligence», которая, судя по описанию, почти ровно про то же самое, только более с использованием чуть более научпоп подхода и с большим количеством конкретики и привязок к нашей жизни сейчас.

Противодействие рискам ИИ | McKinsey

Искусственный интеллект (AI) оказался палкой о двух концах. Хотя это можно сказать о большинстве новых технологий, обе стороны лезвия ИИ гораздо острее, и ни одна из них не совсем понятна.

Рассмотрим сначала положительное. Эти технологии начинают улучшать нашу жизнь множеством способов, от упрощения процесса покупок до улучшения качества медицинского обслуживания. Их ценность для бизнеса также стала неоспоримой: почти 80 процентов руководителей компаний, внедряющих ИИ, недавно сказали нам, что они уже видят в нем умеренную ценность.Хотя широкое использование ИИ в бизнесе все еще находится в зачаточном состоянии, и остаются открытыми вопросы о темпах прогресса, а также о возможности достижения святого Грааля «общего интеллекта», потенциал огромен. Исследования McKinsey Global Institute показывают, что к 2030 году ИИ может обеспечить дополнительную глобальную экономическую отдачу в размере 13 триллионов долларов в год.

Тем не менее, несмотря на то, что искусственный интеллект приносит пользу потребителям и приносит пользу для бизнеса, он влечет за собой множество нежелательных, а иногда и серьезных последствий.И хотя в этой статье мы сосредоточимся на ИИ, эти побочные эффекты (и способы их предотвращения или смягчения) в равной степени применимы ко всей продвинутой аналитике. Наиболее заметных из них, включая нарушения конфиденциальности, дискриминацию, несчастные случаи и манипулирование политическими системами, более чем достаточно, чтобы вызвать осторожность. Еще большее беспокойство вызывают последствия, которые еще не известны и не испытаны. Катастрофические последствия — включая гибель людей, если медицинский алгоритм ИИ выйдет из строя, или нарушение национальной безопасности, если злоумышленник скармливает дезинформацию военной системе ИИ, — возможны, и поэтому представляют собой серьезные проблемы для организаций из-за ущерба репутации. и потери доходов из-за негативной реакции регулирующих органов, уголовных расследований и снижения общественного доверия.

Поскольку ИИ — относительно новая сила в бизнесе, немногие руководители имели возможность отточить свою интуицию в отношении всего спектра социальных, организационных и индивидуальных рисков или получить практические знания о связанных с ними факторах, которые варьируются от данных. подается в системы ИИ для работы алгоритмических моделей и взаимодействия между людьми и машинами. В результате руководители часто упускают из виду потенциальные опасности («Мы не используем ИИ во всем, что может« взорваться », например, в беспилотных автомобилях») или переоценивают возможности организации по снижению рисков («Мы проводили аналитику для долгое время, поэтому у нас уже есть необходимые средства контроля, и наши методы соответствуют практике наших коллег по отрасли »).Руководители также часто объединяют риски ИИ с другими, принадлежащими специалистам в ИТ и аналитических организациях («Я доверяю своей технической команде; они делают все возможное, чтобы защитить наших клиентов и нашу компанию»).

Руководители, надеющиеся избежать или, по крайней мере, смягчить непредвиденные последствия, должны как развивать свои навыки распознавания образов в отношении рисков ИИ, так и вовлекать всю организацию, чтобы она была готова принять на себя всю мощь и ответственность, связанные с ИИ.Уровень усилий, необходимых для выявления и контроля всех ключевых рисков, значительно превышает общепринятые нормы в большинстве организаций. Для достижения реального прогресса требуется мультидисциплинарный подход с участием руководителей высшего звена и всей компании; эксперты в самых разных областях: от юриспруденции и рисков до ИТ, безопасности и аналитики; и менеджеры, которые могут обеспечить бдительность на передовой.

Эта статья призвана помочь, сначала проиллюстрировав ряд подводных камней, которые легко упустить из виду. Затем в нем представлены основы, которые помогут лидерам определить свои наибольшие риски и реализовать широкий спектр тонких мер контроля, необходимых для их обхода.Наконец, он дает представление о некоторых реальных усилиях, предпринимаемых в настоящее время для борьбы с рисками, связанными с искусственным интеллектом, посредством применения этих подходов.

Прежде чем продолжить, мы хотим подчеркнуть, что мы сосредоточены здесь на последствиях первого порядка, которые возникают непосредственно в результате разработки решений ИИ, их непреднамеренного или преднамеренного неправильного применения или неправильного обращения с входными данными, которые их подпитывают. Есть и другие важные последствия, среди которых широко обсуждаемая возможность широко распространенной потери рабочих мест в некоторых отраслях из-за автоматизации рабочего места на основе искусственного интеллекта.Также есть эффекты второго порядка, такие как атрофия навыков (например, диагностических навыков медицинских специалистов), поскольку системы ИИ становятся все более важными. Эти последствия будут и дальше привлекать внимание по мере того, как их воспринимаемая важность будет расти, но здесь они выходят за рамки наших возможностей.

Понимание рисков и их факторов

Когда что-то идет не так с ИИ и выявляется первопричина проблемы, часто очень сильно трясется головой. Оглядываясь назад, кажется невероятным, чтобы этого никто не ожидал.Но если вы проведете опрос хорошо подготовленных руководителей о вероятном появлении следующего ИИ риска , вы вряд ли достигнете какого-либо консенсуса.

Лидеры, надеющиеся сменить взгляд на прошлое на предвидение, должны лучше понимать типы рисков, которые они берут на себя, их взаимозависимости и лежащие в их основе причины. Чтобы помочь развить эту недостающую интуицию, мы описываем ниже пять болевых точек, которые могут привести к рискам ИИ. Первые три — проблемы с данными, технологические проблемы и препятствия безопасности — связаны с тем, что можно было бы назвать факторами, способствующими развитию ИИ.Последние два связаны с алгоритмами и взаимодействиями человека с машиной, которые являются центральными для работы самого ИИ. Ясно, что мы все еще находимся на первых этапах понимания того, что стоит за рисками, которые мы принимаем на себя, характер и диапазон которых мы также стремились перечислить в Приложении 1.

Проблемы с данными. Получение, сортировка, связывание и правильное использование данных становится все труднее, поскольку объем неструктурированных данных, получаемых из таких источников, как Интернет, социальные сети, мобильные устройства, датчики и Интернет вещей, увеличивается.В результате легко стать жертвой ловушек, таких как непреднамеренное использование или раскрытие конфиденциальной информации, скрытой среди анонимных данных. Например, хотя имя пациента может быть отредактировано из одного раздела медицинской карты, используемого системой ИИ, оно может присутствовать в разделе записи, сделанном врачом. Руководителям важно помнить о таких соображениях, поскольку они стремятся соблюдать правила конфиденциальности, такие как Общий регламент Европейского Союза о защите данных (GDPR) или Закон о конфиденциальности потребителей Калифорнии (CCPA), и иным образом управляют репутационными рисками.

Проблемы с технологией. Проблемы с технологиями и процессами во всей операционной среде могут негативно повлиять на производительность систем искусственного интеллекта. Например, одно крупное финансовое учреждение столкнулось с проблемой из-за того, что его программное обеспечение для обеспечения соответствия не смогло выявлять торговые проблемы, поскольку потоки данных больше не включали все сделки клиентов.

Проблемы безопасности. Еще одна возникающая проблема — это потенциальная возможность мошенников использовать кажущиеся нечувствительными данные о маркетинге, состоянии здоровья и финансах, которые компании собирают для подпитки систем искусственного интеллекта.Если меры безопасности недостаточны, можно сшить эти нити вместе для создания ложных идентификационных данных. Хотя целевые компании (которые в противном случае могут быть очень эффективными в защите информации, позволяющей установить личность) являются невольными соучастниками, они все же могут столкнуться с негативной реакцией потребителей и регулятивными последствиями.

Плохое поведение моделей. Сами модели искусственного интеллекта могут создавать проблемы, когда они дают предвзятые результаты (что может произойти, например, если популяция недостаточно представлена ​​в данных, используемых для обучения модели), становятся нестабильными или дают заключения, для которых нет действенных средств правовой защиты. те, кого затронули его решения (например, кто-то отказал в ссуде, не зная, что они могут сделать, чтобы отменить это решение).Рассмотрим, например, возможность моделей искусственного интеллекта непреднамеренно отличать защищенные классы и другие группы путем объединения воедино почтового индекса и данных о доходах для создания целевых предложений. Труднее обнаружить случаи, когда модели ИИ скрываются в предложениях программного обеспечения как услуги (SaaS). Когда поставщики вводят новые интеллектуальные функции — часто без особой помпы, — они также вводят модели, которые могут взаимодействовать с данными в системе пользователя, создавая неожиданные риски, в том числе порождая скрытые уязвимости, которыми могут воспользоваться хакеры.Подразумевается, что лидеры, которые считают, что им все ясно, если их организация не приобрела или не построила системы ИИ или только экспериментирует с их развертыванием, вполне могут ошибаться.

Проблемы взаимодействия. Взаимодействие между людьми и машинами является еще одной ключевой областью риска. Среди наиболее заметных проблем — автоматизированные системы транспортировки, производства и инфраструктуры. Несчастные случаи и травмы возможны, если операторы тяжелого оборудования, транспортных средств или другой техники не осознают, когда системы должны быть отменены, или не спешат их отменять, потому что внимание оператора находится в другом месте — явная возможность в таких приложениях, как беспилотные автомобили.И наоборот, человеческое суждение также может оказаться ошибочным при отмене результатов системы. За кулисами, в организации, занимающейся аналитикой данных, ошибки сценариев, упущения в управлении данными и неверные суждения в данных для обучения моделей легко могут поставить под угрозу справедливость, конфиденциальность, безопасность и соответствие требованиям. Передовой персонал также может непреднамеренно внести свой вклад, например, когда продавцы, более опытные в продажах определенным демографическим группам, непреднамеренно обучают инструмент продаж, основанный на искусственном интеллекте, исключать определенные сегменты клиентов. И это всего лишь непредвиденные последствия .Без строгих мер безопасности недовольные сотрудники или внешние враги могут испортить алгоритмы или использовать приложение ИИ злонамеренным образом.

Управление рисками искусственного интеллекта: три основных принципа

Помимо представления о предстоящих проблемах, приведенные выше примеры и категоризация полезны для выявления и определения приоритетности рисков и их коренных причин. Если вы понимаете, где могут скрываться риски, плохо понимаемые или просто неопознанные, у вас больше шансов их поймать, прежде чем они догонят вас.

Но для того, чтобы перейти от каталогизации рисков к их искоренению, потребуются концентрированные усилия в масштабах всего предприятия. Опыт двух ведущих банков помогает проиллюстрировать необходимую ясность, широту и четкость нюансов. Первый, европейский игрок, работает над применением возможностей расширенной аналитики и искусственного интеллекта для оптимизации колл-центров, принятия решений по ипотеке, управления отношениями и инициатив по управлению казначейством. Второй — мировой лидер, стремящийся применить модель машинного обучения к своим решениям о предоставлении кредита клиентам.

Хотите узнать больше о нашей аналитической практике?

Эти банки, как и многие другие в секторе финансовых услуг, применяли некоторые формы расширенной аналитики в течение ряда лет, начиная с их раннего использования в обнаружении мошенничества с кредитными картами и торговле акциями. Они также подлежат строгому надзору со стороны регулирующих органов и поэтому уже давно применяют и делают прозрачными широкий спектр протоколов и средств контроля для снижения связанных рисков, включая риск кибербезопасности, где они часто находятся на переднем крае, учитывая очевидную привлекательность свои активы злоумышленникам.

Тем не менее, истории этих банков иллюстрируют лишь часть тех средств контроля, которые следует учитывать организациям по контролю за конкретными рисками. Приложение 2 представляет более полный список потенциальных средств контроля, охватывающий весь процесс аналитики, от планирования до разработки и последующего использования и мониторинга. Мы надеемся, что вместе взятые инструмент и примеры помогут руководителям, которым приходится решать широкий круг проблем — от предотвращения предвзятости в механизмах рекомендаций до устранения риска личной идентичности и до более точной адаптации ответов ботов службы поддержки клиентов к потребностям конкретных клиенты и многое другое.

Ясность: используйте подход структурированной идентификации для выявления наиболее серьезных рисков

Главный операционный директор европейского банка начал с того, что собрал руководителей из сферы бизнеса, ИТ, безопасности и управления рисками, чтобы оценить и определить приоритеты своих самых больших рисков. Вклады в это упражнение включали ясный взгляд на существующие риски компании и то, как они могут усугубляться рассматриваемыми усилиями аналитики на основе ИИ, а также на новые риски, которые могут создать факторы, способствующие ИИ, или сам ИИ.Некоторые из них были очевидны, а другие менее очевидны. Одна из них, неожиданно приблизившаяся к вершине списка, — это предоставление потребителям некачественных или предвзятых рекомендаций по продукту. Такие некорректные рекомендации могут привести к значительному ущербу и ущербу, включая потери потребителей, негативную реакцию и нормативные штрафы.

За счет этого структурированного процесса выявления рисков руководители банка достигли ясности в отношении наиболее тревожных сценариев, что позволило им расставить приоритеты для охватываемых рисков, распознать отсутствующие средства контроля и соответственно мобилизовать время и ресурсы.Эти сценарии и приоритетные риски, естественно, будут различаться в зависимости от отрасли и компании. Производитель пищевых продуктов может отдавать приоритет сценариям с загрязненными продуктами. Разработчик программного обеспечения может быть особенно обеспокоен раскрытием программного кода. Медицинская организация может сосредоточиться на таких проблемах, как неправильный диагноз пациента или непреднамеренное причинение вреда пациентам. Привлечение разнообразных менеджеров, сосредоточенных на выявлении и ранжировании проблемных сценариев, — хороший способ как стимулировать творческую энергию, так и снизить риск того, что узкие специалисты или ограниченное мышление упустят основные уязвимости.Организациям не нужно начинать с нуля: за последние несколько лет идентификация рисков стала хорошо развитым искусством, и ее можно напрямую использовать в контексте ИИ.

Ширина: создание надежных средств управления в масштабах всего предприятия

Отточить свое мышление о рисках, мешающих показухе, — это только начало. Также крайне важно применение общекорпоративных средств контроля для руководства разработкой и использованием систем искусственного интеллекта, обеспечения надлежащего надзора и внедрения строгих политик, процедур, обучения сотрудников и планов действий в чрезвычайных ситуациях.Без широких усилий повышаются шансы на то, что факторы риска, подобные описанным ранее, исчезнут.

Обеспокоенный потенциальным риском, связанным с неправильными или необъективными рекомендациями по продукту, европейский банк начал принимать надежный набор бизнес-принципов, нацеленных на подробное описание того, как и где можно использовать машины для принятия решений, влияющих на финансовое здоровье клиента. Менеджеры определили ситуации, когда человеку (например, менеджеру по работе с клиентами или кредитному специалисту) необходимо было «быть в курсе», прежде чем рекомендация будет доставлена ​​клиенту.Эти работники предоставят страховочную сетку для определения наличия у клиента особых обстоятельств, таких как смерть члена семьи или финансовые трудности, которые могут сделать рекомендацию несвоевременной или неуместной.

Комитет по надзору банка также провел анализ пробелов, выявив области в существующей системе управления рисками, которые необходимо углубить, переопределить или расширить. Тщательное и последовательное управление в банке теперь обеспечивает правильное определение политик и процедур, конкретные меры контроля для моделей ИИ, основные принципы (поддерживаемые инструментами) для руководства разработкой моделей, разделение обязанностей и надлежащий надзор.Например, инструменты разработки моделей гарантируют, что специалисты по обработке данных последовательно регистрируют код модели, данные обучения и параметры, выбранные на протяжении всего жизненного цикла разработки. Также были приняты стандартные библиотеки для объяснения, отчетности о производительности моделей и мониторинга данных и моделей в производстве. Эта структура управления оказывается неоценимой как для внутренних усилий по разработке ИИ, так и для оценки и мониторинга сторонних инструментов ИИ, таких как модель мошенничества SaaS, которую принял банк.

Кроме того, банковские политики теперь требуют, чтобы все заинтересованные стороны, включая спонсирующих руководителей предприятий, проводили планирование сценария и создавали запасной план на случай дрейфа производительности модели ИИ, неожиданного изменения входных данных или внезапных изменений, таких как стихийное бедствие, внешняя среда.Эти резервные планы включаются в регулярный процесс анализа рисков банка, что позволяет совету директоров по рискам видеть шаги, предпринимаемые для снижения рисков, связанных с аналитикой и искусственным интеллектом.

Обучение и осведомленность сотрудников также играют важную роль в деятельности банка по снижению рисков. Все затронутые сотрудники получают исчерпывающую информацию о том, где используется ИИ; какие шаги предпринимает банк для обеспечения справедливых и точных решений и защиты данных клиентов; и как система управления банка, автоматизированные технологии и инструменты разработки работают вместе.Кроме того, бизнес-спонсоры, группы управления рисками и аналитический персонал проходят целевое обучение их роли в выявлении и минимизации рисков. Например, бизнес-спонсоры учатся запрашивать объяснения поведения модели, которые они используют для предоставления обратной связи по бизнес-предположениям, лежащим в основе модели. Тем временем группа специалистов по рискам обучена тому, как лучше выявлять и устранять проблемы с соблюдением правовых и нормативных требований, такие как потенциальная дискриминация в отношении защищенных групп или соблюдение GDPR.

Отказ от машинного обучения и искусственного интеллекта

Мониторинг аналитики на основе ИИ — это постоянное усилие, а не разовое действие. Таким образом, группы надзора банка, в том числе комитеты по рискам при совете директоров, регулярно пересматривают программу, чтобы оставаться в курсе новых рисков, которые могли возникнуть в результате нормативных изменений, отраслевых сдвигов, юридических интерпретаций (например, возникающих прецедентных норм GDPR) меняющиеся ожидания потребителей и быстро меняющиеся технологии.

Нюанс: усиление конкретных мер контроля в зависимости от характера риска

Какими бы важными ни были средства контроля на уровне предприятия, их редко бывает достаточно для противодействия всем возможным рискам. Часто требуется другой уровень строгости и нюансов, а необходимые элементы управления будут зависеть от таких факторов, как сложность алгоритмов, их требования к данным, характер взаимодействия между человеком и машиной (или между машиной), потенциальные возможности. для эксплуатации злоумышленниками, и в какой степени ИИ встроен в бизнес-процесс.Иногда необходимы концептуальные элементы управления, начиная с хартии вариантов использования. То же самое и с конкретными элементами управления данными и аналитикой, включая требования к прозрачности, а также с элементами управления для обратной связи и мониторинга, такими как анализ производительности для обнаружения ухудшения качества или смещения.

Наш второй пример проливает свет на применение тонких элементов управления. Это учреждение хотело видеть, как именно модель машинного обучения принимает решения для конкретного процесса взаимодействия с клиентами.После тщательного рассмотрения требований прозрачности учреждение решило снизить риск, ограничив типы используемых алгоритмов машинного обучения. Запрещение определенных форм моделей, которые были чрезмерно сложными и непрозрачными, позволило учреждению достичь баланса, при котором оно было комфортно. Была потеряна некоторая способность прогнозирования, что повлекло за собой экономические издержки. Но прозрачность моделей, которые использовались и , вселяла в персонал больше уверенности в принимаемых ими решениях. Более простые модели также упростили проверку как данных, так и самих моделей на предмет предвзятости, которая может возникнуть из-за поведения пользователей, изменений переменных данных или их ранжирования.

Как видно из этого примера, организациям потребуется набор средств контроля, ориентированных на риски, и лучше всего их использовать для их реализации путем создания протоколов, обеспечивающих их наличие и соблюдение на протяжении всего процесса разработки ИИ. Учреждения в наших примерах реализовали эти протоколы, а также средства контроля в масштабе предприятия, по крайней мере частично, через свою существующую инфраструктуру рисков. Компании, в которых отсутствует централизованная система управления рисками, могут по-прежнему использовать эти методы управления рисками с помощью ИИ, используя надежные процессы управления рисками.


Еще многое предстоит узнать о потенциальных рисках, с которыми сталкиваются организации, отдельные лица и общество, когда дело касается ИИ; о надлежащем балансе между инновациями и рисками; и о введении средств контроля для управления невообразимым. Пока общественное мнение и реакция регулирующих органов были относительно умеренными.

Но это, вероятно, изменится, если другие организации спотыкаются. По мере роста стоимости рисков, связанных с ИИ, возможность как оценивать эти риски, так и привлекать работников на всех уровнях к определению и внедрению средств контроля станет новым источником конкурентного преимущества.Многие организации видят на горизонте переосмысление «клиентского опыта», чтобы охватить как обещания, так и подводные камни результатов, основанных на искусственном интеллекте. Другой императив — начать серьезную дискуссию об этике применения ИИ и о том, где проводить границы, ограничивающие его использование. Коллективные действия, которые могут включать в себя дебаты на отраслевом уровне о самоконтроле и взаимодействии с регулирующими органами, также будут приобретать все большее значение. Организации, которые развивают эти возможности, будут иметь больше возможностей для эффективного обслуживания своих клиентов и общества; избегать затруднений этического, делового, репутационного и нормативного характера; и предотвратить потенциальный экзистенциальный кризис, который может поставить организацию на колени.

Влияние искусственного интеллекта на кибербезопасность

В настоящее время ведутся большие споры о том, является ли искусственный интеллект (ИИ) хорошей или плохой вещью с точки зрения его влияния на человеческую жизнь. Поскольку все больше и больше предприятий используют ИИ для своих нужд, пора проанализировать возможные последствия внедрения ИИ в области кибербезопасности.

Положительное использование ИИ для кибербезопасности

Биометрические учетные записи все чаще используются для создания безопасных учетных записей путем сканирования отпечатков пальцев, сетчатки глаза или отпечатков ладоней.Его можно использовать отдельно или вместе с паролем, и он уже используется в большинстве новых смартфонов. Крупные компании стали жертвами нарушений безопасности, в результате которых были взломаны адреса электронной почты, личная информация и пароли. Эксперты по кибербезопасности неоднократно подтверждали, что пароли чрезвычайно уязвимы для кубер-атак, компрометации личной информации, данных кредитных карт и номеров социального страхования. Все это причины, по которым биометрические учетные записи являются положительным вкладом ИИ в кибербезопасность.

AI также может использоваться для обнаружения угроз и других потенциально вредоносных действий. Обычные системы просто не могут справиться с огромным количеством вредоносных программ, которые создаются каждый месяц, поэтому это потенциальная область, в которой ИИ может вмешаться и решить эту проблему. Компании, занимающиеся кибербезопасностью, обучают системы ИИ обнаруживать вирусы и вредоносное ПО с помощью сложных алгоритмов, чтобы ИИ мог затем запускать распознавание образов в программном обеспечении. Системы искусственного интеллекта можно обучить определять даже самые незначительные признаки атак программ-вымогателей и вредоносных программ до того, как они проникнут в систему, а затем изолировать их от этой системы.Они также могут использовать функции прогнозирования, которые превосходят по скорости традиционные подходы.

Системы, работающие на ИИ, раскрывают потенциал обработки естественного языка, который автоматически собирает информацию, просматривая статьи, новости и исследования о киберугрозах. Эта информация может дать представление об аномалиях, кибератаках и стратегиях предотвращения. Это позволяет компаниям, занимающимся кибербезопасностью, быть в курсе последних рисков и сроков, а также разрабатывать стратегии реагирования для защиты организаций.

Системы

AI также могут использоваться в ситуациях многофакторной аутентификации для предоставления доступа своим пользователям. У разных пользователей компании разные уровни прав аутентификации, которые также зависят от места, из которого они получают доступ к данным. Когда используется ИИ, структура аутентификации может быть намного более динамичной и работать в режиме реального времени, и она может изменять права доступа в зависимости от сети и местоположения пользователя. Многофакторная аутентификация собирает информацию о пользователе, чтобы понять поведение этого человека и определить его права доступа.

Чтобы использовать ИИ в полной мере, важно, чтобы его внедряли подходящие фирмы по кибербезопасности, знакомые с его функционированием. В то время как в прошлом атаки вредоносного ПО могли происходить, не оставляя никаких указаний на то, какие слабые места они использовали, ИИ может вмешаться, чтобы защитить фирмы кибербезопасности и их клиентов от атак, даже если происходит несколько квалифицированных атак.

Недостатки и ограничения использования ИИ для кибербезопасности

Вышеупомянутые преимущества — это лишь малая часть потенциала ИИ в обеспечении кибербезопасности, но есть также ограничения, которые не позволяют ИИ стать основным инструментом, используемым в этой области.Для создания и обслуживания системы искусственного интеллекта компаниям потребуется огромное количество ресурсов, включая память, данные и вычислительную мощность. Кроме того, поскольку системы ИИ обучаются с помощью обучающих наборов данных, компаниям, занимающимся кибербезопасностью, необходимо заполучить множество различных наборов данных с кодами вредоносных программ, не вредоносными кодами и аномалиями. Получение всех этих точных наборов данных может занять действительно много времени и ресурсов, которые некоторые компании не могут себе позволить.

Еще один недостаток заключается в том, что хакеры могут сами использовать ИИ для тестирования своего вредоносного ПО, улучшения и улучшения его, чтобы потенциально стать защищенным от ИИ.Фактически, вредоносные программы, защищенные от ИИ, могут быть чрезвычайно разрушительными, поскольку они могут учиться на существующих инструментах ИИ и разрабатывать более совершенные атаки, чтобы иметь возможность проникнуть в традиционные программы кибербезопасности или даже системы с ИИ.

Решения ограничений AI

Зная эти ограничения и недостатки, очевидно, что искусственный интеллект далек от того, чтобы стать единственным решением для кибербезопасности. В то же время лучшим подходом было бы объединение традиционных методов с инструментами искусственного интеллекта, поэтому организациям следует учитывать эти решения при разработке своей стратегии кибербезопасности:

  • Нанять фирму по кибербезопасности, в которой работают профессионалы, обладающие опытом и навыками во многих различных аспектах кибербезопасности.
  • Попросите вашу команду кибербезопасности протестировать ваши системы и сети на предмет возможных пробелов и немедленно их исправить.
  • Используйте фильтры для URL-адресов, чтобы блокировать вредоносные ссылки, которые потенциально могут содержать вирус или вредоносное ПО.
  • Установите брандмауэры и другие сканеры вредоносных программ для защиты своих систем и постоянно обновляйте их, чтобы они соответствовали обновленным вредоносным программам.
  • Отслеживайте исходящий трафик и применяйте фильтры выхода, чтобы ограничить этот тип трафика.
  • Постоянно просматривайте последние киберугрозы и протоколы безопасности, чтобы получать информацию о том, какими рисками следует управлять в первую очередь, и соответствующим образом разрабатывайте протокол безопасности.
  • Выполняйте регулярные проверки оборудования и программного обеспечения, чтобы убедиться, что ваши системы исправны и работают.

Выполнение этих шагов может помочь снизить многие риски, связанные с кибератаками, но важно знать, что ваша организация все еще находится под угрозой атаки. Из-за этого профилактики недостаточно, и вам также следует работать со своей командой по кибербезопасности, чтобы разработать стратегию восстановления.

Хотя системы #AI используются компаниями для обнаружения вирусов и # вредоносного ПО, # хакеры также используют их для тестирования и защиты своих инструментов от искусственного интеллекта.#respectdata Нажмите, чтобы написать твит

Поскольку потенциал ИИ изучается для повышения профиля кибербезопасности корпорации, он также разрабатывается хакерами. Поскольку он все еще находится в стадии разработки и его потенциал далек от реализации, мы еще не можем знать, будет ли он когда-нибудь полезен или пагубен для кибербезопасности. Между тем, важно, чтобы организации делали все возможное, используя сочетание традиционных методов и искусственного интеллекта, чтобы оставаться на вершине своей стратегии кибербезопасности.

Какие 3 типа ИИ? Руководство по узкому, общему и сверхискусственному интеллекту

В этой статье мы подробно обсуждаем 3 типа ИИ и теории будущего ИИ.


Существует 3 типа искусственного интеллекта (ИИ): узкий или слабый ИИ, общий или сильный ИИ и искусственный суперинтеллект.

В настоящее время мы достигли только узкого ИИ. По мере того, как возможности машинного обучения продолжают развиваться, а ученые приближаются к достижению общего ИИ, циркулируют теории и предположения относительно будущего ИИ.Есть две основные теории.

Одна теория основана на страхе перед антиутопическим будущим, в котором сверхразумные роботы-убийцы захватят мир, либо уничтожив человечество, либо поработив все человечество, как это изображено во многих научно-фантастических рассказах.

Другая теория предсказывает более оптимистичное будущее, в котором люди и боты будут работать вместе, люди будут использовать искусственный интеллект как инструмент для улучшения своего жизненного опыта.

Инструменты искусственного интеллекта уже оказывают значительное влияние на то, как мы ведем бизнес по всему миру, выполняя задачи со скоростью и эффективностью, недоступной для людей.Однако человеческие эмоции и творческие способности — это нечто невероятно особенное и уникальное, которое чрезвычайно трудно — если не невозможно — воспроизвести на машине. Codebots поддерживает будущее, в котором люди и боты работают вместе ради победы.

В этой статье мы подробно обсуждаем 3 типа ИИ и теории будущего ИИ. Начнем с четкого определения искусственного интеллекта.

Что такое искусственный интеллект (ИИ)?

Искусственный интеллект — это отрасль информатики, которая пытается воспроизвести или смоделировать человеческий интеллект в машине, чтобы машины могли выполнять задачи, которые обычно требуют человеческого интеллекта.Некоторые программируемые функции систем ИИ включают планирование, обучение, рассуждение, решение проблем и принятие решений.

Системы искусственного интеллекта работают на алгоритмах с использованием таких методов, как машинное обучение, глубокое обучение и правила. Алгоритмы машинного обучения передают компьютерные данные в системы ИИ, используя статистические методы, позволяющие системам ИИ учиться. Благодаря машинному обучению системы искусственного интеллекта становятся все лучше и лучше в решении задач, без необходимости специального программирования для этого.

Если вы новичок в области искусственного интеллекта, вы, скорее всего, знакомы с научно-фантастическим изображением искусственного интеллекта; роботы с человеческими характеристиками. Хотя мы еще не совсем достигли уровня ИИ, подобного человеческому роботу, существует множество невероятных вещей, которые ученые, исследователи и технологи делают с ИИ.

ИИ может охватывать все, от поисковых алгоритмов Google до Watson от IBM и автономного оружия. Технологии искусственного интеллекта трансформировали возможности предприятий во всем мире, позволяя людям автоматизировать ранее трудоемкие задачи и получать неизведанное представление о своих данных за счет быстрого распознавания образов.

Какие 3 типа ИИ?

Технологии искусственного интеллекта классифицируются по их способности имитировать человеческие характеристики, технологиям, которые они используют для этого, их реальным приложениям и теории разума, которые мы обсудим более подробно ниже.

Используя эти характеристики для справки, все системы искусственного интеллекта — реальные и гипотетические — делятся на один из трех типов:

  1. Узкий искусственный интеллект (ANI), который имеет узкий диапазон возможностей;
  2. Общий искусственный интеллект (AGI), который соответствует возможностям человека; или
  3. Искусственный суперинтеллект (ASI), более способный, чем человек.

Узкий искусственный интеллект (ANI) / Слабый AI / Узкий AI

Узкий искусственный интеллект (ANI), также называемый слабым AI или узким AI, является единственным типом искусственного интеллекта, который мы успешно реализовали на сегодняшний день. Узкий ИИ целенаправлен, разработан для выполнения отдельных задач — например, распознавания лиц, распознавания речи / голосовых помощников, вождения автомобиля или поиска в Интернете — и очень умен при выполнении конкретной задачи, для которой он запрограммирован.

Хотя эти машины могут показаться умными, они работают с узким набором ограничений и ограничений, поэтому этот тип обычно называют слабым ИИ. Узкий ИИ не имитирует и не копирует человеческий интеллект, он просто моделирует человеческое поведение на основе узкого диапазона параметров и контекстов.

Учитывайте распознавание речи и языка виртуального помощника Siri на iPhone, распознавание зрения беспилотных автомобилей и механизмы рекомендаций, которые предлагают товары, которые вам нравятся, на основе вашей истории покупок.Эти системы можно только изучить или научить выполнять определенные задачи.

Узкий искусственный интеллект за последнее десятилетие совершил множество прорывов, основанных на достижениях в области машинного обучения и глубокого обучения. Например, сегодня системы искусственного интеллекта используются в медицине для диагностики рака и других заболеваний с максимальной точностью за счет воспроизведения человеческих познаний и рассуждений.

Машинный интеллект Narrow AI основан на использовании обработки естественного языка (NLP) для выполнения задач.НЛП проявляется в чат-ботах и ​​подобных технологиях искусственного интеллекта. Понимая речь и текст на естественном языке, ИИ запрограммирован на естественное и персонализированное взаимодействие с людьми.

Узкий ИИ может быть реактивным или иметь ограниченную память. Реактивный ИИ невероятно прост; у него нет памяти или возможностей хранения данных, имитируя способность человеческого разума реагировать на различные виды стимулов без предварительного опыта. Искусственный интеллект с ограниченной памятью является более продвинутым, оснащен функциями хранения данных и обучения, которые позволяют машинам использовать исторические данные для принятия решений.

Большая часть ИИ — это ИИ с ограниченным объемом памяти, когда машины используют большие объемы данных для глубокого обучения. Глубокое обучение позволяет персонализировать опыт ИИ, например, виртуальных помощников или поисковых систем, которые хранят ваши данные и персонализируют ваш будущий опыт.

Примеры узкого ИИ:
  • Rankbrain от Google / Поиск в Google
  • Siri от Apple, Alexa от Amazon, Cortana от Microsoft и других виртуальных помощников
  • IBM Watson
  • Программное обеспечение для распознавания изображений / лиц
  • Картирование и прогноз заболеваний инструменты
  • Производство и роботы-дроны
  • Фильтры спама в электронной почте / инструменты для мониторинга опасного контента в социальных сетях
  • Рекомендации по развлекательному или маркетинговому контенту на основе поведения просмотра / прослушивания / покупки
  • Беспилотные автомобили

Общий искусственный интеллект (AGI) / Сильный ИИ / Глубокий ИИ

Общий искусственный интеллект (AGI), также называемый сильным ИИ или глубоким ИИ, — это концепция машины с общим интеллектом, имитирующей человеческий интеллект и / или поведение, способной учиться и применять его интеллект решит любую проблему.AGI может думать, понимать и действовать таким образом, который неотличим от человеческого в любой конкретной ситуации.

Исследователи и ученые ИИ еще не достигли сильного ИИ. Чтобы добиться успеха, им нужно будет найти способ сделать машины сознательными, запрограммировав полный набор когнитивных способностей. Машины должны будут вывести эмпирическое обучение на новый уровень, не просто повысив эффективность решения отдельных задач, но получив способность применять эмпирические знания к более широкому кругу различных проблем.

Сильный ИИ использует структуру ИИ теории разума, которая относится к способности распознавать потребности, эмоции, убеждения и мыслительные процессы других интеллектуальных лиц. Теория искусственного интеллекта на уровне разума — это не репликация или симуляция, а обучение машин по-настоящему понимать людей.

Огромная задача создания сильного ИИ неудивительна, если учесть, что человеческий мозг является моделью для создания общего интеллекта. Из-за отсутствия всесторонних знаний о функциях человеческого мозга исследователи изо всех сил пытаются воспроизвести основные функции зрения и движения.

Fujitsu K, один из самых быстрых суперкомпьютеров, является одной из самых заметных попыток создания сильного ИИ, но, учитывая, что для моделирования одной секунды нейронной активности потребовалось 40 минут, трудно определить, является ли сильный ИИ будет достигнуто в обозримом будущем. По мере развития технологий распознавания изображений и лиц вполне вероятно, что мы увидим улучшение способности машин учиться и видеть.

Искусственный суперинтеллект (ASI)

Искусственный суперинтеллект (ASI) — это гипотетический ИИ, который не просто имитирует или понимает человеческий интеллект и поведение; ИСИ — это то место, где машины осознают себя и превосходят возможности человеческого разума и способностей.

Суперинтеллект долгое время был музой научной фантастики-антиутопии, в которой роботы вторгались, ниспровергали и / или порабощали человечество. Согласно концепции искусственного суперинтеллекта, ИИ становится настолько близким к человеческим эмоциям и переживаниям, что не просто понимает их, он сам вызывает эмоции, потребности, убеждения и желания.

В дополнение к воспроизведению многогранного интеллекта людей, ASI теоретически будет намного лучше во всем, что мы делаем; математика, наука, спорт, искусство, медицина, хобби, эмоциональные отношения, все.У ASI будет больше памяти и более быстрая способность обрабатывать и анализировать данные и стимулы. Следовательно, способности сверхразумных существ принимать решения и решать проблемы будут намного выше, чем у людей.

Возможность наличия таких мощных машин в нашем распоряжении может показаться привлекательной, но сама концепция имеет множество неизвестных последствий. Если бы появились самосознающие сверхразумные существа, они были бы способны на такие идеи, как самосохранение.Влияние, которое это окажет на человечество, наше выживание и наш образ жизни, является чистым предположением.

Опасен ли ИИ? Завоюют ли роботы мир?

Быстрый рост и мощные возможности ИИ заставили многих людей задуматься о «неизбежности» и близости захвата ИИ.

В своей книге «Суперинтеллект» Ник Бостром начинает с «Неоконченной басни о воробьях». По сути, некоторые воробьи решили, что им нужна домашняя сова. Большинство воробьев сочли эту идею потрясающей, но один был настроен скептически, выразив беспокойство по поводу того, как воробьи могут управлять совой.Это беспокойство было отклонено, поскольку «мы разберемся с этой проблемой, когда она возникнет».

Илон Маск испытывает аналогичные опасения по поводу сверхразумных существ и будет утверждать, что люди — это воробьи в метафоре Бострома, а ASI — это сова. Как и в случае с воробьями, «проблема контроля» вызывает особую озабоченность, потому что у нас может быть только один шанс решить ее.

Марк Цукерберг менее обеспокоен этой гипотетической проблемой управления, говоря, что положительные стороны ИИ перевешивают потенциальные недостатки.

Большинство исследователей согласны с тем, что сверхразумный ИИ вряд ли будет проявлять человеческие эмоции, и у нас нет причин ожидать, что ИСИ станет злонамеренным. При рассмотрении того, как ИИ может стать риском, два ключевых сценария были определены как наиболее вероятные.

ИИ может быть запрограммирован на что-то разрушительное.

Автономное оружие — это система искусственного интеллекта, запрограммированная на убийство. В руках не того человека автономное оружие может непреднамеренно привести к войне искусственного интеллекта и массовым жертвам, возможно, даже к гибели человечества.Такое оружие может быть сконструировано таким образом, чтобы его было чрезвычайно трудно «выключить», и люди могли бы быстро потерять контроль. Этот риск преобладает даже при узком ИИ, но растет экспоненциально по мере увеличения автономии.

ИИ можно запрограммировать на что-то полезное, но разработать разрушительный метод для достижения своей цели.

Может оказаться трудным запрограммировать машину для выполнения задачи, если вы не будете тщательно и четко обозначить свои цели. Представьте, что вы просите умную машину доставить вас куда-нибудь как можно быстрее.В инструкции «как можно быстрее» не учитываются безопасность, правила дорожного движения и т. Д. Интеллектуальная машина может успешно выполнить свою задачу, но какой хаос она может вызвать в процессе? Если машине дана цель, а затем нам нужно изменить ее или остановить машину, как мы можем гарантировать, что машина не рассматривает наши попытки остановить ее как угрозу цели? Как мы можем гарантировать, что машина не сделает «все необходимое» для достижения цели? Опасность заключается в том, «чего бы это ни стоило», и риски, связанные с ИИ, не обязательно связаны со злобой, они связаны с компетентностью.

Суперинтеллектуальный ИИ был бы чрезвычайно эффективен для достижения целей, какими бы они ни были, но нам нужно обеспечить соответствие этих целей нашим, если мы рассчитываем сохранить некоторый уровень контроля.

Какое будущее у ИИ?

Это животрепещущий вопрос. Способны ли мы создать сильный ИИ или искусственный суперинтеллект? Возможны ли они вообще? Эксперты-оптимисты считают, что AGI и ASI возможны, но очень сложно определить, насколько мы далеки от реализации этих уровней AI.

Граница между компьютерными программами и ИИ непрозрачна. Имитировать узкие элементы человеческого интеллекта и поведения относительно легко, но создание машинной версии человеческого сознания — это совсем другая история. Хотя ИИ все еще находится в зачаточном состоянии, а поиски сильного ИИ долгое время считались научной фантастикой, прорывы в области машинного и глубокого обучения указывают на то, что нам, возможно, необходимо более реалистично оценивать возможность достижения общего искусственного интеллекта в нашей жизни.

Страшно представить себе будущее, в котором машины будут лучше людей в том, что делает нас людьми. Мы не можем точно предсказать все последствия развития искусственного интеллекта для нашего мира, но искоренение таких вещей, как болезни и бедность, не является чем-то непостижимым.

На данный момент самая большая проблема, с которой цивилизация сталкивается в связи с узкими технологиями искусственного интеллекта, — это перспектива эффективной целенаправленной автоматизации, в результате чего многие человеческие рабочие места станут устаревшими. В своем выступлении «Что ИИ добавляет в нашу жизнь?» На конференции 2020 Digital Life Design (DLD) в Мюнхене, Германия, Гари Каспаров, самый молодой чемпион мира по шахматам и лучший шахматист за 20 лет, представил альтернативный аргумент.

СЛЕВА: Михал Печучек, технический директор Avast, и Гари Каспаров, чемпион мира по шахматам в Мюнхене, Германия, номер DLD20

Каспаров утверждал, что мы больше выигрываем, чем проигрываем, когда дело доходит до ИИ, и что люди не устаревают. будут продвигаться по службе. Каспаров говорит: «Рабочие места не исчезают, они развиваются. Удаление людей с повторяющейся работы дает им свободу творчества. Будущее человечества зависит от творчества.

«Будущее за людьми и машинами, работающими вместе.AI принесет вам то, что вы хотите больше всего… время ».

Codebots ‘основан на видении будущего, в котором люди и боты работают вместе, а боты берут на себя тяжелую работу, чтобы люди могли сосредоточиться на творчестве. В конце концов, технологии искусственного интеллекта — это инструмент, созданный для улучшения человеческого опыта и улучшения нашей жизни.

Мы рады быть частью революции. Присоединяйтесь к нам и попробуйте Codebots бесплатно.

Последнее обновление: 11 февраля 2020 г.


Преимущества и риски искусственного интеллекта

Многие исследователи ИИ закатывают глаза, когда видят этот заголовок: « Стивен Хокинг предупреждает, что рост числа роботов может иметь катастрофические последствия для человечества. И столько же потеряли счет тому, сколько похожих статей они видели. Обычно эти статьи сопровождаются зловещим роботом, несущим оружие, и они предлагают нам беспокоиться о том, что роботы поднимутся и убьют нас, потому что они стали сознательными и / или злыми. На более легкой ноте, такие статьи на самом деле довольно впечатляют, потому что они лаконично резюмируют сценарий, о котором исследователи ИИ не беспокоятся, . Этот сценарий сочетает в себе целых три отдельных заблуждения: беспокойство о сознании , зло , роботы и .

Если вы едете по дороге, у вас есть субъективное восприятие цветов, звуков, и т. Д. . Но есть ли у беспилотного автомобиля субъективный опыт? Каково это вообще быть беспилотным автомобилем? Хотя эта загадка сознания интересна сама по себе, она не имеет отношения к риску ИИ. Если вас сбивает беспилотный автомобиль, для вас не имеет значения, ощущает ли он себя субъективно. Точно так же на нас, людей, повлияет то, что сверхразумный AI делает , а не то, что субъективно ощущает .

Еще один отвлекающий маневр — это страх перед машинами, которые станут злыми. Настоящее беспокойство вызывает не злоба, а компетентность. Сверхразумный ИИ по определению очень хорош в достижении своих целей, какими бы они ни были, поэтому нам нужно убедиться, что его цели совпадают с нашими. Люди обычно не ненавидят муравьев, но мы умнее их — так что, если мы хотим построить плотину гидроэлектростанции и там есть муравейник, для муравьев очень плохо. Движение за полезный ИИ не хочет ставить человечество на место этих муравьев.

Заблуждение о сознании связано с мифом о том, что у машин не может быть целей. Очевидно, что машины могут иметь цели в узком смысле демонстрации целенаправленного поведения: поведение ракеты с тепловым наведением наиболее экономично объясняется как цель поразить цель. Если вы чувствуете угрозу со стороны машины, цели которой не совпадают с вашими, то именно ее цели в этом узком смысле беспокоят вас, а не то, сознательна ли машина и испытывает ли она чувство цели.Если бы за вами гналась эта ракета с тепловым наведением, вы, вероятно, не воскликнули бы: «Я не волнуюсь, потому что у машин не бывает целей!»

Я сочувствую Родни Бруксу и другим пионерам робототехники, которые чувствуют себя несправедливо демонизированными пугающими таблоидами, потому что некоторые журналисты, кажется, одержимо зациклены на роботах и ​​украшают многие свои статьи злобными металлическими монстрами с красными блестящими глазами. На самом деле, движение за полезный ИИ занимается не роботами, а самим интеллектом: в частности, интеллектом, цели которого не совпадают с нашими.Чтобы доставить нам неприятности, такому смещенному сверхчеловеческому разуму не требуется никакого тела робота, только подключение к Интернету — это может позволить перехитрить финансовые рынки, изобретать ученых, манипулировать человеческими лидерами и разработать оружие, которое мы даже не можем понять. Даже если создание роботов было физически невозможно, сверхразумный и сверхбогатый ИИ мог легко заплатить или манипулировать многими людьми, чтобы они невольно выполняли его приказы.

Заблуждение о роботах связано с мифом о том, что машины не могут управлять людьми.Интеллект позволяет контролировать: люди управляют тиграми не потому, что мы сильнее, а потому, что мы умнее. Это означает, что если мы уступим свое положение самых умных на нашей планете, возможно, мы также уступим контроль.

Что такое искусственный интеллект | Accenture

Ни одно внедрение искусственного интеллекта не будет полным без рассмотрения этики ИИ. ИИ развивается стремительными темпами, и, как и в случае с любой другой мощной технологией, организациям необходимо завоевывать доверие общественности и нести ответственность перед своими клиентами и сотрудниками.

В Accenture мы определяем «ответственный ИИ» как практику проектирования, создания и развертывания ИИ таким образом, чтобы расширять возможности сотрудников и предприятия и оказывать справедливое влияние на клиентов и общество, позволяя компаниям вызывать доверие и уверенно масштабировать ИИ.

Trust
Каждая компания, использующая ИИ, подлежит проверке. Театр этики, где компании усиливают свое ответственное использование ИИ с помощью PR, одновременно участвуя в неопубликованной серой деятельности, является регулярной проблемой.Бессознательная предвзятость — это еще один. Ответственный ИИ — это новая возможность, направленная на укрепление доверия между организациями, их сотрудниками и клиентами.

Безопасность данных
Конфиденциальность данных и несанкционированное использование ИИ могут нанести ущерб как репутации, так и системно. Компании должны с самого начала обеспечить конфиденциальность, прозрачность и безопасность своих программ ИИ и обеспечить безопасный и ответственный сбор, использование, управление и хранение данных.

Прозрачность и объяснимость
Независимо от того, создает ли комитет по этике или пересматривает свой кодекс этики, компаниям необходимо создать структуру управления, чтобы направлять свои инвестиции и избегать этических, юридических и нормативных рисков.Поскольку технологии ИИ становятся все более ответственными за принятие решений, предприятиям необходимо иметь возможность видеть, как системы ИИ приходят к заданному результату, принимая эти решения из «черного ящика». Четкая структура управления и комитет по этике могут помочь в разработке практик и протоколов, обеспечивающих надлежащее воплощение их этического кодекса при разработке решений ИИ.

Control
У машин нет собственного разума, но они делают ошибки.Организации должны иметь структуру рисков и планы действий в чрезвычайных ситуациях в случае возникновения проблемы. Четко определите, кто несет ответственность за решения, принимаемые системами ИИ, и определите управленческий подход, который поможет при необходимости обострить проблемы.

Как искусственный интеллект меняет мир

Большинство людей не очень знакомы с концепцией искусственного интеллекта (ИИ). Например, когда 1500 руководителей высшего звена в США в 2017 году спросили об ИИ, только 17% ответили, что знакомы с ним. 1 Некоторые из них не были уверены, что это было и как это повлияет на их конкретные компании. Они понимали, что существует значительный потенциал для изменения бизнес-процессов, но не понимали, как ИИ можно развернуть в их собственных организациях.

Несмотря на то, что ИИ широко не знакомо, это технология, которая меняет все сферы жизни. Это универсальный инструмент, который позволяет людям переосмыслить то, как мы интегрируем информацию, анализируем данные и используем полученные знания для улучшения процесса принятия решений.Мы надеемся, что с помощью этого всеобъемлющего обзора мы объясним ИИ аудитории, состоящей из политиков, лидеров общественного мнения и заинтересованных наблюдателей, и продемонстрируем, как ИИ уже меняет мир и поднимает важные вопросы для общества, экономики и управления.

В этой статье мы обсуждаем новые приложения в области финансов, национальной безопасности, здравоохранения, уголовного правосудия, транспорта и умных городов, а также рассматриваем такие вопросы, как проблемы доступа к данным, алгоритмическая предвзятость, этика и прозрачность ИИ, а также юридическая ответственность за решения ИИ. .Мы противопоставляем нормативные подходы США и Европейского союза и заканчиваем тем, что даем ряд рекомендаций для получения максимальной отдачи от ИИ, при этом защищая важные человеческие ценности. 2

Чтобы максимизировать преимущества ИИ, мы рекомендуем девять шагов вперед:

  • Поощрять более широкий доступ к данным для исследователей без ущерба для личной конфиденциальности пользователей,
  • инвестируют больше государственного финансирования в несекретные исследования ИИ,
  • продвигает новые модели цифрового образования и развития рабочей силы с искусственным интеллектом, чтобы сотрудники обладали навыками, необходимыми в экономике 21 -го века ,
  • создать федеральный консультативный комитет по ИИ для выработки рекомендаций по политике,
  • взаимодействует с государственными и местными чиновниками, чтобы они проводили эффективную политику,
  • регулируют общие принципы ИИ, а не конкретные алгоритмы,
  • серьезно относятся к жалобам на предвзятость, чтобы ИИ не копировал историческую несправедливость, несправедливость или дискриминацию в данных или алгоритмах,
  • поддерживают механизмы надзора и контроля со стороны человека, а
  • наказывать злонамеренное поведение ИИ и способствовать кибербезопасности.

Хотя не существует единого согласованного определения, обычно считается, что ИИ относится к «машинам, которые реагируют на стимуляцию в соответствии с традиционными реакциями людей, учитывая человеческую способность к созерцанию, суждениям и намерениям». 3 По словам исследователей Шубхенду и Виджая, эти программные системы «принимают решения, которые обычно требуют человеческого уровня знаний» и помогают людям предвидеть проблемы или решать проблемы по мере их возникновения. 4 Таким образом, они действуют намеренно, разумно и адаптивно.

Намерение

Алгоритмы искусственного интеллекта предназначены для принятия решений, часто с использованием данных в реальном времени. Они не похожи на пассивные машины, которые способны только на механические или заранее определенные реакции. Используя датчики, цифровые данные или удаленные входы, они объединяют информацию из множества различных источников, мгновенно анализируют материал и действуют на основе выводов, полученных из этих данных. Благодаря значительным улучшениям в системах хранения, скорости обработки и аналитических методах, они способны значительно усложнить анализ и принятие решений.

Искусственный интеллект уже меняет мир и поднимает важные вопросы для общества, экономики и управления.

Разведка

AI обычно используется в сочетании с машинным обучением и анализом данных. 5 Машинное обучение использует данные и выявляет основные тенденции. Если он обнаруживает что-то, что имеет отношение к практической проблеме, разработчики программного обеспечения могут взять эти знания и использовать их для анализа конкретных проблем.Все, что требуется, — это данные, которые достаточно надежны, чтобы алгоритмы могли распознавать полезные шаблоны. Данные могут поступать в виде цифровой информации, спутниковых изображений, визуальной информации, текста или неструктурированных данных.

Возможность адаптации Системы

AI могут учиться и адаптироваться при принятии решений. Например, в области транспорта у полуавтономных транспортных средств есть инструменты, которые позволяют водителям и транспортным средствам знать о предстоящих заторах, выбоинах, строительстве шоссе или других возможных препятствиях на дороге.Транспортные средства могут использовать опыт других транспортных средств на дороге без участия человека, и весь полученный ими «опыт» немедленно и полностью может быть передан другим аналогичным образом сконфигурированным транспортным средствам. Их передовые алгоритмы, датчики и камеры включают в себя опыт текущих операций и используют информационные панели и визуальные дисплеи для представления информации в режиме реального времени, чтобы водители-люди могли понять текущее движение и условия движения. А в случае полностью автономных транспортных средств передовые системы могут полностью управлять автомобилем или грузовиком и принимать все навигационные решения.

AI — это не футуристическое видение, а то, что присутствует здесь сегодня, интегрируется и развертывается в различных секторах. Сюда входят такие области, как финансы, национальная безопасность, здравоохранение, уголовное правосудие, транспорт и умные города. Есть множество примеров, когда ИИ уже оказывает влияние на мир и значительно расширяет возможности человека. 6

Одна из причин растущей роли ИИ — это огромные возможности для экономического развития, которые он предоставляет.По оценке проекта PriceWaterhouseCoopers, «технологии искусственного интеллекта могут увеличить мировой ВВП на 15,7 триллиона долларов, или целых 14%, к 2030 году». 7 Сюда входят авансы в размере 7 триллионов долларов США в Китае, 3,7 триллиона долларов США в Северной Америке, 1,8 триллиона долларов США в Северной Европе, 1,2 триллиона долларов США в Африке и Океании, 0,9 триллиона долларов США в остальной части Азии за пределами Китая, 0,7 триллиона долларов США в Южной Европе и 0,5 триллиона долларов США. триллион в Латинской Америке. Китай быстро прогрессирует, поскольку поставил перед собой национальную цель инвестировать 150 миллиардов долларов в ИИ и стать мировым лидером в этой области к 2030 году.

Между тем, исследование Китая, проведенное McKinsey Global Institute, показало, что «автоматизация на основе искусственного интеллекта может повысить производительность китайской экономики, которая добавит от 0,8 до 1,4 процентных пункта к росту ВВП в год, в зависимости от скорости внедрения». 8 Хотя его авторы обнаружили, что Китай в настоящее время отстает от США и Великобритании в развертывании ИИ, сам огромный размер его рынка ИИ дает этой стране огромные возможности для пилотного тестирования и будущего развития.

Финансы

Инвестиции в финансовый ИИ в США утроились с 2013 по 2014 год и составили 12,2 миллиарда долларов. 9 По словам наблюдателей в этом секторе, «решения о ссудах сейчас принимаются программным обеспечением, которое может учитывать множество тщательно проанализированных данных о заемщике, а не только кредитный рейтинг и проверку биографических данных». 10 Кроме того, существуют так называемые робо-консультанты, которые «создают персонализированные инвестиционные портфели, устраняя необходимость в биржевых маклерах и финансовых консультантах.” 11 Эти усовершенствования призваны избавить от эмоций при инвестировании и принять решения, основанные на аналитических соображениях, и сделать этот выбор за считанные минуты.

Яркий пример этого имеет место на фондовых биржах, где высокочастотная торговля с помощью машин заменила большую часть принятия решений человеком. Люди подают заказы на покупку и продажу, и компьютеры в мгновение ока сопоставляют их без вмешательства человека. Машины могут определять неэффективность торговли или рыночные различия в очень небольшом масштабе и выполнять сделки, приносящие прибыль, в соответствии с инструкциями инвестора. 12 Оснащенные в некоторых местах передовыми вычислениями, эти инструменты обладают гораздо большей емкостью для хранения информации, поскольку они делают упор не на ноль или единицу, а на «квантовые биты», которые могут хранить несколько значений в каждом месте. 13 Это резко увеличивает емкость хранилища и сокращает время обработки.

Обнаружение мошенничества — еще один способ использования ИИ в финансовых системах. Иногда трудно распознать мошеннические действия в крупных организациях, но ИИ может выявить отклонения, выбросы или отклонения от нормы, требующие дополнительного расследования.Это помогает менеджерам находить проблемы на ранних этапах цикла, прежде чем они достигнут опасного уровня. 14

Национальная безопасность

AI играет важную роль в национальной обороне. В рамках своего проекта Maven американские военные развертывают ИИ, «чтобы просеивать огромные массивы данных и видео, захваченных слежением, и затем предупреждать аналитиков о закономерностях или об аномальных или подозрительных действиях». 15 По словам заместителя министра обороны Патрика Шанахана, цель новых технологий в этой области — «удовлетворить потребности наших боевиков и повысить скорость и гибкость разработки и приобретения технологий.” 16

Искусственный интеллект ускорит традиционный процесс ведения войны так быстро, что был придуман новый термин: гипервойна.

Аналитика больших данных, связанная с ИИ, сильно повлияет на анализ разведки, поскольку огромные объемы данных просеиваются почти в реальном времени — если не в конечном итоге в реальном времени — тем самым предоставляя командирам и их штабам невиданный ранее уровень анализа разведки и производительности. Командование и контроль также будут затронуты, поскольку человеческие командиры делегируют определенную рутину, а в особых обстоятельствах ключевые решения платформам ИИ, резко сокращая время, связанное с принятием решения и последующими действиями.В конце концов, война — это соревновательный процесс по времени, в котором обычно преобладает сторона, способная выбрать самый быстрый и наиболее быстро перейти к исполнению. Действительно, системы искусственного интеллекта, связанные с системами командования и управления с помощью ИИ, могут обеспечить поддержку решений и принятие решений со скоростью, значительно превосходящей скорости традиционных средств ведения войны. Этот процесс будет настолько быстрым, особенно в сочетании с автоматическими решениями о запуске автономных систем вооружений с искусственным интеллектом, способных привести к летальному исходу, что был придуман новый термин специально для обозначения скорости, с которой будет вестись война: гипервойна.

В то время как этические и юридические дебаты бушуют по поводу того, будет ли Америка когда-либо вести войну с искусственно интеллектуальными автономными летальными системами, китайцы и русские далеко не погрязли в этих дебатах, и мы должны предвидеть нашу необходимость защищаться от этих систем, действующих в условиях гипервойны скорости. Проблема на Западе в том, где поставить «людей в петлю» в сценарии гипервойны, в конечном итоге диктует способность Запада быть конкурентоспособными в этой новой форме конфликта. 17

Подобно тому, как ИИ сильно повлияет на скорость войны, распространение киберугроз нулевого дня или нулевой секунды, а также полиморфных вредоносных программ бросит вызов даже самой сложной киберзащите на основе сигнатур.Это требует значительного улучшения существующей киберзащиты. Все чаще происходит миграция уязвимых систем, и им необходимо будет перейти на многоуровневый подход к кибербезопасности с помощью облачных платформ когнитивного ИИ. Такой подход приближает сообщество к «мыслящим» защитным возможностям, которые могут защищать сети посредством постоянного обучения работе с известными угрозами. Эта возможность включает анализ на уровне ДНК ранее неизвестного кода с возможностью распознавания и остановки входящего вредоносного кода путем распознавания строкового компонента файла.Вот как некоторые ключевые системы в США остановили изнуряющие вирусы WannaCry и Petya.

Подготовка к гипервойне и защита критически важных киберсетей должны стать первоочередной задачей, поскольку Китай, Россия, Северная Корея и другие страны вкладывают значительные ресурсы в ИИ. В 2017 году Государственный совет Китая опубликовал план для страны «построить отечественную промышленность на сумму почти 150 миллиардов долларов к 2030 году». 18 В качестве примера возможностей китайская поисковая компания Baidu впервые разработала приложение для распознавания лиц, которое обнаруживает пропавшие без вести. люди.Кроме того, такие города, как Шэньчжэнь, выделяют до 1 миллиона долларов на поддержку лабораторий искусственного интеллекта. Эта страна надеется, что ИИ обеспечит безопасность, борется с терроризмом и улучшит программы распознавания речи. 19 Двойной характер многих алгоритмов ИИ будет означать, что исследования ИИ, сосредоточенные на одном секторе общества, могут быть быстро изменены для использования в секторе безопасности. 20

Здравоохранение Инструменты

AI помогают дизайнерам улучшить вычислительную сложность в здравоохранении.Например, Merantix — немецкая компания, которая применяет глубокое обучение к медицинским вопросам. У него есть приложение для медицинской визуализации, которое «обнаруживает лимфатические узлы в человеческом теле на изображениях компьютерной томографии (КТ)». 21 По словам разработчиков, ключевым моментом является маркировка узлов и определение небольших повреждений или новообразований, которые могут быть проблематичными. Люди могут это сделать, но радиологи берут 100 долларов в час и могут внимательно прочитать только четыре изображения в час. Если бы было 10 000 изображений, стоимость этого процесса составила бы 250 000 долларов, что недопустимо дорого, если бы выполнялся человеком.

В этой ситуации глубокое обучение может обучить компьютеры на наборах данных, чтобы узнать, что такое нормальный лимфатический узел, а какой — нерегулярный. Выполнив это с помощью упражнений на визуализацию и оттачивая точность маркировки, специалисты по радиологической визуализации могут применить эти знания к реальным пациентам и определить степень риска раковых лимфатических узлов. Поскольку лишь некоторые из них могут дать положительный результат, необходимо отличить нездоровый узел от здорового.

ИИ

применялся также при застойной сердечной недостаточности, заболевании, которым страдают 10 процентов пожилых людей и которое ежегодно обходится в США в 35 миллиардов долларов. Инструменты искусственного интеллекта полезны, потому что они «заранее предсказывают потенциальные проблемы в будущем и выделяют ресурсы на обучение пациентов, распознавание и упреждающие вмешательства, которые не позволяют пациентам попасть в больницу». 22

Уголовное правосудие

AI развертывается в сфере уголовного правосудия.Город Чикаго разработал управляемый искусственным интеллектом «Список стратегических тем», в котором анализируются люди, арестованные за риск стать преступниками в будущем. Он оценивает 400 000 человек по шкале от 0 до 500, используя такие параметры, как возраст, преступная деятельность, виктимизация, записи об арестах за наркотики и принадлежность к банде. Изучив данные, аналитики обнаружили, что молодежь является сильным предиктором насилия, быть жертвой перестрелки ассоциируется с будущим преступником, принадлежность к банде имеет небольшую прогностическую ценность, а аресты за наркотики не имеют существенной связи с будущей преступной деятельностью. 23

Судебные эксперты утверждают, что программы искусственного интеллекта снижают предвзятость сотрудников правоохранительных органов и приводят к более справедливой системе вынесения приговоров. Сотрудник Института R Street Калеб Уотни пишет:

Эмпирически обоснованные вопросы прогнозного анализа рисков играют на руку машинному обучению, автоматизированному мышлению и другим формам ИИ. Одно моделирование политики машинного обучения пришло к выводу, что такие программы можно использовать для сокращения преступности до 24,8 процента без изменения количества заключенных или сократить количество заключенных до 42 процентов без увеличения уровня преступности. 24

Однако критики обеспокоены тем, что алгоритмы ИИ представляют собой «секретную систему для наказания граждан за преступления, которых они еще не совершали. Оценки риска неоднократно использовались для проведения крупномасштабных облав ». 25 Есть опасения, что такие инструменты несправедливо нацелены на цветных людей и не помогли Чикаго снизить волну убийств, охватившую его в последние годы.

Несмотря на эти опасения, другие страны продолжают быстрое развертывание в этой области.В Китае, например, компании уже имеют «значительные ресурсы и доступ к голосам, лицам и другим биометрическим данным в огромных количествах, что поможет им развивать свои технологии». 26 Новые технологии позволяют сопоставлять изображения и голоса с другими типами информации и использовать ИИ в этих комбинированных наборах данных для улучшения правоохранительной деятельности и национальной безопасности. Через свою программу «Sharp Eyes» китайские правоохранительные органы объединяют видеоизображения, активность в социальных сетях, онлайн-покупки, записи о поездках и личные данные в «полицейское облако».«Эта интегрированная база данных позволяет властям отслеживать преступников, потенциальных нарушителей закона и террористов. 27 Иными словами, Китай стал ведущим в мире государством слежки с использованием искусственного интеллекта.

Транспорт

Транспорт представляет собой область, в которой искусственный интеллект и машинное обучение создают важные инновации. Исследования Кэмерона Керри и Джека Карстена из Брукингского института показали, что в период с августа 2014 года по июнь 2017 года в технологии автономных транспортных средств было инвестировано более 80 миллиардов долларов.Эти инвестиции включают приложения как для автономного вождения, так и в основные технологии, жизненно важные для этого сектора. 28

Автономные транспортные средства — автомобили, грузовики, автобусы и системы доставки беспилотных летательных аппаратов — используют передовые технологические возможности. Эти функции включают в себя автоматическое наведение и торможение транспортного средства, системы смены полосы движения, использование камер и датчиков для предотвращения столкновений, использование ИИ для анализа информации в реальном времени, а также использование высокопроизводительных вычислений и систем глубокого обучения для адаптации к новые обстоятельства через подробные карты. 29

Системы обнаружения света и дальности (LIDAR) и искусственный интеллект играют ключевую роль в навигации и предотвращении столкновений. Системы LIDAR объединяют световые и радиолокационные приборы. Они устанавливаются на крыше транспортных средств, которые используют изображение в 360-градусной среде с помощью радара и световых лучей для измерения скорости и расстояния до окружающих объектов. Наряду с датчиками, размещенными на передней, боковой и задней части транспортного средства, эти инструменты предоставляют информацию, которая удерживает быстро движущиеся автомобили и грузовики на их полосе движения, помогает им избегать других транспортных средств, при необходимости применяет тормоза и рулевое управление, и делает это мгновенно. чтобы избежать несчастных случаев.

Расширенное программное обеспечение позволяет автомобилям учиться на опыте других транспортных средств на дороге и настраивать свои системы навигации при изменении погоды, вождения или дорожных условий. Это означает, что ключом является программное обеспечение, а не сам физический автомобиль или грузовик.

Поскольку эти камеры и датчики собирают огромный объем информации и должны мгновенно обрабатывать его, чтобы избежать столкновения с автомобилем на следующей полосе, автономным транспортным средствам требуются высокопроизводительные вычисления, продвинутые алгоритмы и системы глубокого обучения для адаптации к новым сценариям.Это означает, что ключом является программное обеспечение, а не сам физический автомобиль или грузовик. 30 Расширенное программное обеспечение позволяет автомобилям учиться на опыте других транспортных средств на дороге и настраивать свои системы навигации при изменении погоды, вождения или дорожных условий. 31

Компании, занимающиеся райдшерингом, очень заинтересованы в автономных транспортных средствах. Они видят преимущества в обслуживании клиентов и производительности труда. Все крупные компании по аренде райдеров изучают автомобили без водителя.Всплеск услуг каршеринга и такси, таких как Uber и Lyft в США, Mytaxi и Hailo компании Daimler в Великобритании и Didi Chuxing в Китае, демонстрирует возможности этого вида транспорта. Uber недавно подписал соглашение о покупке 24 000 автономных автомобилей у Volvo для службы совместного использования пассажиров. 32

Однако в марте 2018 года компания по аренде автомобилей потерпела неудачу, когда один из ее автономных транспортных средств в Аризоне сбил пешехода и убил его.Uber и несколько автопроизводителей немедленно приостановили испытания и начали расследование того, что пошло не так и как мог произойти смертельный исход. 33 И промышленность, и потребители хотят быть уверенными в том, что технология безопасна и способна выполнить заявленные обещания. Если не будет убедительных ответов, эта авария может замедлить развитие ИИ в транспортном секторе.

Умные города

Столичные правительства используют ИИ для улучшения предоставления городских услуг.Например, по словам Кевина Десузы, Рашми Кришнамурти и Грегори Доусона:

Пожарная служба Цинциннати использует аналитику данных для оптимизации реагирования на неотложную медицинскую помощь. Новая система аналитики рекомендует диспетчеру соответствующий ответ на вызов службы экстренной медицинской помощи — можно ли лечить пациента на месте или его нужно доставить в больницу — с учетом нескольких факторов, таких как тип вызова, местоположение , погода и подобные звонки. 34

Так как он ежегодно отправляет 80 000 запросов, официальные лица Цинциннати применяют эту технологию для определения приоритетов реагирования и определения лучших способов реагирования на чрезвычайные ситуации.Они рассматривают ИИ как способ работы с большими объемами данных и находят эффективные способы ответа на публичные запросы. Вместо того, чтобы решать проблемы с обслуживанием разовым образом, власти стараются проявлять инициативу в том, как они предоставляют городские услуги.

Цинциннати не одинок. В ряде мегаполисов внедряются приложения для умных городов, которые используют ИИ, среди прочего, для улучшения предоставления услуг, экологического планирования, управления ресурсами, использования энергии и предотвращения преступности.В своем индексе умных городов журнал Fast Company оценил американские регионы и выбрал Сиэтл, Бостон, Сан-Франциско, Вашингтон, округ Колумбия, и Нью-Йорк, как самые популярные среди них. Сиэтл, например, придерживается принципов устойчивого развития и использует искусственный интеллект для управления энергопотреблением и управлением ресурсами. Бостон запустил программу «City Hall To Go», которая гарантирует, что малообеспеченные общины получают необходимые общественные услуги. Он также развернул «камеры и индуктивные петли для управления движением и акустические датчики для определения выстрелов из оружия».«Сан-Франциско сертифицировал 203 здания как отвечающие стандартам устойчивости LEED. 35

Благодаря этим и другим средствам мегаполисы лидируют по внедрению решений искусственного интеллекта в стране. Действительно, согласно отчету Национальной лиги городов, 66 процентов американских городов инвестируют в технологии умных городов. Среди основных приложений, отмеченных в отчете, — «интеллектуальные счетчики для коммунальных служб, интеллектуальные сигналы трафика, приложения электронного управления, киоски Wi-Fi и датчики радиочастотной идентификации на тротуарах».” 36

Эти примеры из различных секторов демонстрируют, как ИИ меняет многие сферы человеческого существования. Растущее проникновение ИИ и автономных устройств во многие аспекты жизни меняет основные операции и процесс принятия решений в организациях, а также повышает эффективность и время отклика.

Однако в то же время эти события поднимают важные политические, нормативные и этические вопросы. Например, как мы должны продвигать доступ к данным? Как мы защитимся от предвзятых или несправедливых данных, используемых в алгоритмах? Какие типы этических принципов вводятся в процессе программирования и насколько прозрачными должны быть дизайнеры в своем выборе? А как насчет вопросов юридической ответственности в случаях, когда алгоритмы причиняют вред? 37

Растущее проникновение ИИ во многие аспекты жизни меняет процесс принятия решений в организациях и повышает эффективность.В то же время, эти события поднимают важные политические, нормативные и этические вопросы.

Проблемы с доступом к данным

Ключом к получению максимальной отдачи от ИИ является «дружественная к данным экосистема с унифицированными стандартами и межплатформенным обменом». ИИ зависит от данных, которые можно анализировать в режиме реального времени и использовать для решения конкретных проблем. Наличие данных, «доступных для исследования» в исследовательском сообществе, является предпосылкой для успешной разработки ИИ. 38

Согласно исследованию McKinsey Global Institute, страны, которые продвигают открытые источники данных и обмен данными, являются наиболее вероятными странами, которые увидят прогресс в области искусственного интеллекта. В этом плане у США есть существенное преимущество перед Китаем. Глобальные рейтинги открытости данных показывают, что США занимают восьмое место в мире по сравнению с 93 местом в Китае. 39

Но прямо сейчас в Соединенных Штатах нет согласованной национальной стратегии в области данных. Существует несколько протоколов для содействия доступу к исследованиям или платформ, которые позволяют получать новые идеи из частных данных.Не всегда ясно, кому принадлежат данные или какая часть принадлежит публичной сфере. Эта неопределенность ограничивает инновационную экономику и тормозит академические исследования. В следующем разделе мы опишем способы улучшения доступа к данным для исследователей.

Ошибки в данных и алгоритмах

В некоторых случаях считается, что определенные системы ИИ допускают дискриминационные или предвзятые действия. 40 Например, Airbnb обвиняется в наличии на своей платформе домовладельцев, дискриминирующих расовые меньшинства.Исследовательский проект, проведенный Гарвардской школой бизнеса, показал, что «пользователи Airbnb с явно афроамериканскими именами примерно на 16 процентов реже будут приняты в качестве гостей, чем те, у кого явно белые имена». 41

Расовые проблемы также возникают с программным обеспечением для распознавания лиц. Большинство таких систем работают, сравнивая лицо человека с рядом лиц в большой базе данных. Как отмечает Джой Буоламвини из Лиги алгоритмической справедливости: «Если ваши данные о распознавании лиц содержат в основном лица европеоидной расы, это то, что ваша программа научится распознавать.” 42 Если базы данных не имеют доступа к различным данным, эти программы плохо работают при попытке распознать афро-американские или азиатско-американские особенности.

Многие наборы исторических данных отражают традиционные значения, которые могут или не могут отражать предпочтения, желаемые в текущей системе. Как отмечает Буоламвини, такой подход рискует повторить несправедливость прошлого:

Рост автоматизации и растущая зависимость от алгоритмов для принятия важных решений, таких как получение страховки, вероятность невыполнения обязательств по ссуде или чей-то риск рецидива, означает, что это то, что необходимо решить.Даже решения о зачислении становятся все более автоматизированными — в какую школу ходят наши дети и какие возможности у них есть. Нам не нужно переносить структурное неравенство прошлого в будущее, которое мы создаем. 43

Этика и прозрачность искусственного интеллекта

Алгоритмы включают этические соображения и ценностный выбор в программные решения. Таким образом, эти системы вызывают вопросы относительно критериев, используемых при автоматизированном принятии решений. Некоторые люди хотят лучше понимать, как работают алгоритмы и какой выбор делается. 44

В Соединенных Штатах многие городские школы используют алгоритмы для принятия решений о зачислении, основанные на различных соображениях, таких как предпочтения родителей, качество района, уровень дохода и демографический фон. По словам исследователя Брукингса Джона Валанта, базирующаяся в Новом Орлеане Bricolage Academy «отдает приоритет экономически неблагополучным кандидатам до 33 процентов имеющихся мест. На практике, однако, большинство городов выбрали категории, в которых приоритет отдается братьям и сестрам нынешних учащихся, детям школьных служащих и семьям, проживающим в широком географическом районе школы.” 45 Можно ожидать, что выбор зачисления будет очень различным, когда в игру вступят такие соображения.

В зависимости от того, как настроены системы искусственного интеллекта, они могут упростить выделение ипотечных заявок, помочь людям дискриминировать людей, которые им не нравятся, или помочь отобрать или составить списки людей на основе несправедливых критериев. Типы соображений, которые входят в программные решения, имеют большое значение с точки зрения того, как работают системы и как они влияют на клиентов. 46

По этим причинам ЕС вводит в действие Общий регламент защиты данных (GDPR) в мае 2018 года. В правилах указано, что люди имеют «право отказаться от персонализированной рекламы» и «могут оспаривать принятые« юридические или аналогичные важные »решения. алгоритмами и призывом к вмешательству человека »в форме объяснения того, как алгоритм привел к определенному результату. Каждое руководство предназначено для обеспечения защиты личных данных и предоставления людям информации о том, как работает «черный ящик». 47

Юридическая ответственность

Есть вопросы относительно юридической ответственности систем искусственного интеллекта. В случае причинения вреда или нарушения (или смертельного исхода в случае беспилотных автомобилей) операторы алгоритма, вероятно, подпадут под действие правил ответственности за качество продукции. Судебная практика показала, что факты и обстоятельства ситуации определяют ответственность и влияют на вид налагаемых наказаний. Они могут варьироваться от гражданских штрафов до тюремного заключения за серьезный вред. 48 Смерть, связанная с Uber, в Аризоне станет важным испытанием для юридической ответственности. Штат активно привлекал Uber для тестирования своих автономных транспортных средств и предоставил компании значительные возможности для проведения дорожных испытаний. Еще неизвестно, будут ли по этому делу судебные иски и кто привлечен к суду: водитель-человек, штат Аризона, пригород Феникса, где произошла авария, Uber, разработчики программного обеспечения или производитель автомобилей. Учитывая, что в дорожных испытаниях участвует множество людей и организаций, необходимо решить множество юридических вопросов.

В областях, не связанных с транспортом, цифровые платформы часто несут ограниченную ответственность за то, что происходит на их сайтах. Например, в случае с Airbnb фирма «требует, чтобы люди согласились отказаться от своего права на подачу иска или присоединиться к любому коллективному иску или коллективному арбитражу, чтобы воспользоваться услугой». Требуя от пользователей пожертвовать основными правами, компания ограничивает защиту потребителей и, следовательно, ограничивает возможности людей бороться с дискриминацией, возникающей из-за несправедливых алгоритмов. 49 Но верен ли принцип нейтральных сетей во многих секторах, еще предстоит определить на широкой основе.

Чтобы уравновесить инновации и основные человеческие ценности, мы предлагаем ряд рекомендаций по развитию ИИ. Это включает в себя улучшение доступа к данным, увеличение государственных инвестиций в ИИ, содействие развитию ИИ-персонала, создание федерального консультативного комитета, взаимодействие с государственными и местными властями для обеспечения принятия эффективных политик, регулирование общих целей в отличие от конкретных алгоритмов, серьезное отношение к предвзятости как к предвзятости. Проблема ИИ, поддержание механизмов человеческого контроля и надзора, наказание за злонамеренное поведение и обеспечение кибербезопасности.

Улучшение доступа к данным

Соединенным Штатам следует разработать стратегию обработки данных, способствующую инновациям и защите потребителей. В настоящее время не существует единых стандартов в отношении доступа к данным, обмена данными или защиты данных. Практически все данные являются конфиденциальными по своей природе и не передаются в широкое пользование исследовательскому сообществу, что ограничивает инновации и проектирование систем. ИИ требует данных для тестирования и улучшения его способности к обучению. 50 Без структурированных и неструктурированных наборов данных будет практически невозможно получить все преимущества искусственного интеллекта.

В целом, исследовательскому сообществу нужен лучший доступ к правительственным и коммерческим данным, хотя и с соответствующими гарантиями, чтобы убедиться, что исследователи не злоупотребляют данными, как Cambridge Analytica сделала с информацией Facebook. Исследователи могут получить доступ к данным разными способами. Один из них заключается в добровольных соглашениях с компаниями, владеющими конфиденциальными данными. Facebook, например, недавно объявил о партнерстве со Стэнфордским экономистом Раджем Четти, чтобы использовать данные социальных сетей для исследования неравенства. 51 В рамках соглашения исследователи должны были пройти проверку биографических данных и иметь доступ к данным только с защищенных сайтов в целях защиты конфиденциальности и безопасности пользователей.

В США нет единых стандартов в отношении доступа к данным, обмена данными или защиты данных. Практически все данные являются конфиденциальными по своей природе и не передаются в широкое пользование исследовательскому сообществу, что ограничивает инновации и проектирование систем.

Google уже давно предоставляет результаты поиска в агрегированной форме для исследователей и широкой публики.На сайте «Тенденции» ученые могут анализировать такие темы, как интерес к Трампу, взгляды на демократию и перспективы экономики в целом. 52 Это помогает людям отслеживать движения в интересах общества и определять темы, которые вдохновляют широкую публику.

Twitter делает большую часть своих твитов доступными для исследователей через интерфейсы прикладного программирования, обычно называемые API. Эти инструменты помогают людям за пределами компании создавать прикладное программное обеспечение и использовать данные из ее платформы социальных сетей.Они могут изучать модели общения в социальных сетях и видеть, как люди комментируют текущие события или реагируют на них.

В некоторых секторах, где есть заметная общественная выгода, правительства могут способствовать сотрудничеству, создавая инфраструктуру, которая обменивается данными. Например, Национальный институт рака впервые разработал протокол обмена данными, при котором сертифицированные исследователи могут запрашивать имеющиеся у него данные о состоянии здоровья, используя обезличенную информацию, полученную из клинических данных, информации о заявках и лекарственной терапии.Это позволяет исследователям оценивать эффективность и результативность и давать рекомендации относительно лучших медицинских подходов без ущерба для конфиденциальности отдельных пациентов.

Могут существовать партнерские отношения между государственным и частным секторами, которые объединяют наборы государственных и коммерческих данных для повышения производительности системы. Например, города могут объединять информацию из служб совместного использования поездок со своими собственными материалами о местах предоставления социальных услуг, автобусных маршрутах, общественном транспорте и заторах на автомагистралях, чтобы улучшить транспорт.Это поможет мегаполисам справиться с заторами движения и поможет в планировании автомагистралей и общественного транспорта.

Некоторое сочетание этих подходов улучшило бы доступ к данным для исследователей, правительства и бизнес-сообщества, не затрагивая при этом личную конфиденциальность. Как заметил Ян Бак, вице-президент NVIDIA, «Данные — это топливо, которое движет движком ИИ. Федеральное правительство имеет доступ к обширным источникам информации. Открытие доступа к этим данным поможет нам понять, что изменит U.С. экономика ». 53 Через портал Data.gov федеральное правительство уже предоставило более 230 000 наборов данных в общественное достояние, и это стимулировало инновации и способствовало совершенствованию технологий искусственного интеллекта и анализа данных. 54 Частный сектор также должен облегчить доступ к исследовательским данным, чтобы общество могло в полной мере использовать преимущества искусственного интеллекта.

Увеличение государственных инвестиций в AI

По словам Грега Брокмана, соучредителя OpenAI, U.Федеральное правительство США инвестирует всего 1,1 миллиарда долларов в неклассифицированные технологии искусственного интеллекта. 55 Это намного меньше суммы, расходуемой Китаем или другими ведущими странами в этой области исследований. Этот недостаток заслуживает внимания, потому что экономические выгоды от ИИ значительны. Для ускорения экономического развития и социальных инноваций федеральным чиновникам необходимо увеличить инвестиции в искусственный интеллект и аналитику данных. Увеличение инвестиций, вероятно, во много раз окупится экономическими и социальными выгодами. 56

Содействовать цифровому образованию и развитию кадров

Поскольку приложения ИИ ускоряются во многих секторах, жизненно важно, чтобы мы переосмыслили наши образовательные учреждения для мира, в котором ИИ будет повсеместным, а учащиеся будут нуждаться в другом виде обучения, чем они получают в настоящее время. Прямо сейчас многие студенты не получают инструкций по навыкам, которые потребуются в среде, где доминирует ИИ. Например, в настоящее время не хватает специалистов по обработке данных, специалистов по информатике, инженеров, программистов и разработчиков платформ.Это навыки, которых не хватает; Если наша образовательная система не создаст больше людей с такими способностями, это ограничит развитие ИИ.

По этим причинам правительства штатов и федеральное правительство инвестируют в человеческий капитал ИИ. Например, в 2017 году Национальный научный фонд профинансировал более 6500 аспирантов в компьютерных областях и запустил несколько новых инициатив, направленных на поощрение данных и информатики на всех уровнях от дошкольного до высшего и непрерывного образования. 57 Цель состоит в том, чтобы создать больший поток специалистов по ИИ и анализу данных, чтобы Соединенные Штаты могли в полной мере воспользоваться преимуществами революции в области знаний.

Но должны быть существенные изменения и в самом процессе обучения. В мире искусственного интеллекта необходимы не только технические навыки, но и навыки критического мышления, сотрудничества, проектирования, визуального отображения информации и независимого мышления, среди прочего. ИИ изменит конфигурацию функционирования общества и экономики, и необходимо иметь «общую картину», размышляя о том, что это будет значить для этики, управления и воздействия на общество.Людям потребуется способность широко осмыслить многие вопросы и интегрировать знания из различных областей.

Одним из примеров новых способов подготовки учащихся к цифровому будущему является программа IBM Teacher Advisor, в которой используются бесплатные онлайн-инструменты Watson, помогающие учителям привносить в класс новейшие знания. Они позволяют преподавателям разрабатывать новые планы уроков в областях STEM и не связанных с STEM, находить соответствующие обучающие видеоролики и помогают учащимся максимально эффективно использовать класс. 58 По сути, они являются предшественниками новой образовательной среды, которую необходимо создать.

Создание федерального консультативного комитета по ИИ

Федеральным чиновникам нужно подумать о том, как они имеют дело с искусственным интеллектом. Как отмечалось ранее, существует множество проблем, начиная от необходимости улучшения доступа к данным и заканчивая решением проблем предвзятости и дискриминации. Крайне важно учитывать эти и другие проблемы, чтобы мы могли в полной мере использовать преимущества этой новой технологии.

Чтобы продвинуться вперед в этой области, несколько членов Конгресса представили «Закон о будущем искусственного интеллекта», законопроект, призванный установить общие политические и правовые принципы для ИИ. Он предлагает министру торговли создать федеральный консультативный комитет по разработке и внедрению искусственного интеллекта. Законодательство предоставляет федеральному правительству механизм для получения рекомендаций о способах содействия «инвестиционному и инновационному климату для обеспечения глобальной конкурентоспособности Соединенных Штатов», «оптимизации развития искусственного интеллекта для решения проблемы потенциального роста, реструктуризации или другие изменения в рабочей силе Соединенных Штатов »,« поддерживают беспристрастную разработку и применение искусственного интеллекта »и« защищают права на неприкосновенность частной жизни ».” 59

Комитету предлагается ответить на следующие конкретные вопросы: конкурентоспособность, влияние на персонал, образование, обучение этике, обмен данными, международное сотрудничество, подотчетность, предвзятость машинного обучения, влияние на сельскую местность, эффективность правительства, инвестиционный климат, влияние на рабочие места, предвзятость и влияние на потребителя. Комитету поручено представить отчет Конгрессу и администрации через 540 дней после принятия закона о любых законодательных или административных мерах, необходимых в отношении ИИ.

Этот закон является шагом в правильном направлении, хотя эта область развивается настолько быстро, что мы рекомендуем сократить сроки отчетности с 540 дней до 180 дней. Ожидание отчета комитета почти два года, безусловно, приведет к упущенным возможностям и бездействию по важным вопросам. Учитывая быстрый прогресс в этой области, гораздо более быстрое выполнение анализа комитета было бы весьма полезным.

Взаимодействие с государственными и местными чиновниками

штатов и населенных пунктов также принимают меры в отношении ИИ.Например, городской совет Нью-Йорка единогласно принял закон, предписывающий мэру сформировать рабочую группу, которая будет «контролировать справедливость и достоверность алгоритмов, используемых муниципальными агентствами». 60 Городские власти используют алгоритмы, чтобы «определить, будет ли меньшая сумма залога назначена малоимущему обвиняемому, если будут созданы пожарные части, размещение учеников в государственных школах, оценка работы учителей, выявление мошенничества по программе Medicaid и определение того, где произойдет следующее преступление». 61

По словам разработчиков закона, городские власти хотят знать, как работают эти алгоритмы, и убедиться, что ИИ обеспечивает достаточную прозрачность и подотчетность.Кроме того, существует озабоченность по поводу справедливости и предвзятости алгоритмов ИИ, поэтому целевой группе было поручено проанализировать эти проблемы и дать рекомендации относительно будущего использования. Планируется, что к концу 2019 года он доложит мэру по целому ряду вопросов, касающихся политики ИИ, правовых и нормативных требований.

Некоторые наблюдатели уже обеспокоены тем, что рабочая группа не пойдет достаточно далеко в привлечении алгоритмов к ответственности. Например, Джулия Паулз из Корнельского технологического университета и Нью-Йоркского университета утверждает, что закон изначально требовал от компаний сделать исходный код ИИ доступным для всеобщего ознакомления и что имело место моделирование принятия решений с использованием реальных данных.Однако после критики этих положений бывший член совета Джеймс Вакка отказался от требований в пользу целевой группы, изучающей эти вопросы. Он и другие городские власти были обеспокоены тем, что публикация конфиденциальной информации об алгоритмах замедлит инновации и затруднит поиск поставщиков ИИ, которые будут работать с городом. 62 Еще неизвестно, как эта местная целевая группа уравновесит вопросы инноваций, конфиденциальности и прозрачности.

Регулируйте широкие цели больше, чем конкретные алгоритмы

Европейский Союз занял ограничительную позицию по этим вопросам сбора и анализа данных. 63 В нем есть правила, ограничивающие возможность компаний собирать данные о дорожных условиях и отображать виды улиц. Поскольку многие из этих стран обеспокоены тем, что личная информация людей в незашифрованных сетях Wi-Fi попадает в общий сбор данных, ЕС оштрафовал технологические компании, потребовал копии данных и наложил ограничения на собираемый материал. 64 Это усложнило работающим там технологическим компаниям разработку карт высокого разрешения, необходимых для автономных транспортных средств.

GDPR, внедряемый в Европе, налагает серьезные ограничения на использование искусственного интеллекта и машинного обучения. Согласно опубликованным руководящим принципам, «Правила запрещают любое автоматизированное решение, которое« существенно влияет »на граждан ЕС. Сюда входят методы, которые оценивают «производительность человека на работе, экономическое положение, здоровье, личные предпочтения, интересы, надежность, поведение, местоположение или передвижения» ». 65 Кроме того, эти новые правила дают гражданам право проверять, как цифровые службы сделали определенные алгоритмические выборы, влияющие на людей.

Занимая ограничительную позицию по вопросам сбора и анализа данных, Европейский Союз ставит своих производителей и разработчиков программного обеспечения в невыгодное положение по сравнению с остальным миром.

При строгом толковании эти правила затруднят европейским разработчикам программного обеспечения (и американским дизайнерам, работающим с европейскими аналогами) внедрение искусственного интеллекта и картографирования высокой четкости в автономные транспортные средства. Центральным элементом навигации в этих автомобилях и грузовиках является отслеживание местоположения и перемещений.Без карт высокой четкости, содержащих геокодированные данные, и глубокого обучения, использующего эту информацию, полностью автономное вождение в Европе будет стагнирующим. Посредством этой и других мер по защите данных Европейский Союз ставит своих производителей и разработчиков программного обеспечения в невыгодное положение по сравнению с остальным миром.

Имеет смысл подумать о широких целях, желаемых в области ИИ, и ввести в действие политику, которая их продвигает, в отличие от правительств, пытающихся взломать «черные ящики» и посмотреть, как именно работают конкретные алгоритмы.Регулирование отдельных алгоритмов ограничит инновации и затруднит использование искусственного интеллекта для компаний.

Серьезно относиться к предубеждениям

Предвзятость и дискриминация — серьезные проблемы для ИИ. Уже имел место ряд случаев несправедливого обращения, связанного с историческими данными, и необходимо предпринять шаги, чтобы убедиться, что это не станет распространенным явлением в искусственном интеллекте. Существующие законы, регулирующие дискриминацию в физической экономике, необходимо распространить на цифровые платформы.Это поможет защитить потребителей и укрепить доверие к этим системам в целом.

Чтобы эти достижения получили широкое распространение, необходима большая прозрачность в работе систем искусственного интеллекта. Эндрю Берт из Immuta утверждает: «Ключевая проблема, с которой сталкивается прогнозная аналитика, — это действительно прозрачность. Мы живем в мире, где операции по обработке и анализу данных берут на себя все более важные задачи, и единственное, что их сдерживает, — это то, насколько хорошо специалисты по обработке данных, обучающие модели, могут объяснить, что делают их модели.” 66

Поддержание механизмов надзора и контроля со стороны человека

Некоторые люди утверждали, что у людей должны быть возможности осуществлять надзор и контроль над системами ИИ. Например, генеральный директор Института искусственного интеллекта Аллена Орен Эциони утверждает, что должны быть правила для регулирования этих систем. Во-первых, по его словам, ИИ должен регулироваться всеми законами, которые уже были разработаны для человеческого поведения, включая правила, касающиеся «киберзапугивания, манипулирования ценными бумагами или террористических угроз», а также «заманивания [пинг] людей в совершение преступлений.Во-вторых, он считает, что эти системы должны раскрывать, что они автоматизированные системы, а не люди. В-третьих, он утверждает: «А.И. система не может хранить или раскрывать конфиденциальную информацию без явного согласия источника этой информации ». 67 Его объяснение состоит в том, что эти инструменты хранят так много данных, что люди должны осознавать риски для конфиденциальности, создаваемые ИИ.

В том же духе Глобальная инициатива IEEE имеет этические принципы для ИИ и автономных систем.Его эксперты предлагают запрограммировать эти модели с учетом общепринятых человеческих норм и правил поведения. Алгоритмы ИИ должны учитывать важность этих норм, способы разрешения конфликта норм и способы, которыми эти системы могут быть прозрачными в отношении разрешения норм. По мнению экспертов по этике, дизайн программного обеспечения должен быть запрограммирован на «непредвзятость» и «честность». При возникновении сбоев должны существовать механизмы смягчения последствий. В частности, ИИ должен быть чувствителен к таким проблемам, как предвзятость, дискриминация и справедливость. 68

Группа экспертов по машинному обучению утверждает, что можно автоматизировать принятие этических решений. Используя проблему троллейбуса как моральную дилемму, они задают следующий вопрос: если автономный автомобиль выходит из-под контроля, следует ли запрограммировать его так, чтобы убивать собственных пассажиров или пешеходов, переходящих улицу? Они разработали «систему, основанную на голосовании», которая попросила 1,3 миллиона человек оценить альтернативные сценарии, суммировала общий выбор и применила общую точку зрения этих людей к ряду транспортных возможностей.Это позволило им автоматизировать принятие этических решений в алгоритмах ИИ с учетом общественных предпочтений. 69 Эта процедура, конечно, не уменьшает трагедию, связанную с какими-либо смертельными исходами, например, в случае с Uber, но обеспечивает механизм, который помогает разработчикам ИИ учитывать этические соображения при планировании.

Наказывать злонамеренное поведение и способствовать кибербезопасности

Как и в случае с любой новой технологией, важно препятствовать вредоносному лечению, предназначенному для обмана программного обеспечения или использования его в нежелательных целях. 70 Это особенно важно с учетом аспектов двойного использования ИИ, когда один и тот же инструмент может использоваться в полезных или злонамеренных целях. Злонамеренное использование ИИ подвергает людей и организации ненужным рискам и подрывает достоинства появляющейся технологии. Это включает в себя такие действия, как взлом, манипулирование алгоритмами, нарушение конфиденциальности и конфиденциальности или кража личных данных. Усилия по захвату ИИ с целью получения конфиденциальной информации должны серьезно наказываться как способ сдерживания таких действий. 71

В быстро меняющемся мире, в котором многие организации обладают передовыми вычислительными возможностями, необходимо уделять серьезное внимание кибербезопасности. Страны должны быть осторожны, защищая свои собственные системы и не позволяя другим странам нанести ущерб их безопасности. 72 По данным Министерства внутренней безопасности США, в центр обслуживания крупного американского банка в неделю поступает около 11 миллионов звонков. Чтобы защитить свою телефонию от атак типа «отказ в обслуживании», он использует «механизм политик на основе машинного обучения, [который] блокирует более 120 000 вызовов в месяц на основе политик голосового брандмауэра, включая преследование вызывающих абонентов, роботизированные вызовы и потенциальные мошеннические вызовы. 73 Это представляет собой способ, которым машинное обучение может помочь защитить технологические системы от злонамеренных атак.

Подводя итог, можно сказать, что мир находится на пороге революции во многих секторах с помощью искусственного интеллекта и анализа данных. Уже есть значительные развертывания в области финансов, национальной безопасности, здравоохранения, уголовного правосудия, транспорта и умных городов, которые изменили процесс принятия решений, бизнес-модели, снижение рисков и производительность системы. Эти события приносят существенные экономические и социальные выгоды.

Мир находится на пороге революционных преобразований во многих секторах с помощью искусственного интеллекта, но необходимо лучше понимать способ разработки систем искусственного интеллекта из-за серьезных последствий, которые эти технологии будут иметь для общества в целом.

Тем не менее, то, как разворачиваются системы искусственного интеллекта, имеет большое значение для общества в целом. Важно то, как решаются политические вопросы, разрешаются этические конфликты, разрешаются правовые реалии и насколько прозрачна требуется ИИ и решения для анализа данных. 74 Выбор человека в отношении разработки программного обеспечения влияет на способ принятия решений и на то, как они интегрируются в рабочие процессы организации. Необходимо лучше понять, как именно выполняются эти процессы, потому что они окажут существенное влияние на широкую публику в ближайшее время и в обозримом будущем. ИИ вполне может произвести революцию в человеческих делах и стать самым влиятельным человеческим нововведением в истории.

Примечание. Мы ценим помощь Грейс Гилберг, Джека Карстена, Хиллари Шауб и Кристьян Томассон в исследовании этого проекта.


The Brookings Institution — некоммерческая организация, занимающаяся независимыми исследованиями и политическими решениями. Его миссия — проводить качественные независимые исследования и на основе этих исследований предоставлять инновационные практические рекомендации для политиков и общественности. Выводы и рекомендации любой публикации Brookings принадлежат исключительно ее авторам и не отражают точку зрения Учреждения, его руководства или других ученых.

Поддержка этой публикации была предоставлена ​​Amazon. Brookings осознает, что ценность, которую он предоставляет, заключается в его абсолютной приверженности качеству, независимости и влиянию. Мероприятия, поддерживаемые его донорами, отражают это обязательство.

Джон Р. Аллен является членом Совета консультантов Amida Technology и Совета директоров Spark Cognition. Обе компании работают в областях, обсуждаемых в этой статье.

Конкуренция в эпоху искусственного интеллекта

Вкратце об идее
Изменение рынка

Мы наблюдаем появление фирм нового типа, в которых искусственный интеллект является основным источником создания и доставки стоимости.

Вызов

Операционная модель, основанная на искусственном интеллекте, стирает границы, которые раньше разделяли отрасли, и меняет правила деловой конкуренции.

The Upshot

Как для цифровых стартапов, так и для традиционных компаний важно понимать революционное влияние ИИ на операции, стратегию и конкуренцию.

В 2019 году, всего через пять лет после запуска Ant Financial Services Group, количество потребителей, пользующихся ее услугами, перевалило за миллиард.Компания Ant Financial, созданная на базе Alibaba, использует искусственный интеллект и данные из Alipay — своей основной платформы мобильных платежей — для управления разнообразным бизнесом, включая потребительское кредитование, фонды денежного рынка, управление капиталом, медицинское страхование, услуги кредитного рейтинга и т. Д. даже онлайн-игра, которая побуждает людей сокращать углеродный след. Компания обслуживает более чем в 10 раз больше клиентов, чем крупнейшие банки США, при этом количество сотрудников составляет менее одной десятой. Во время последнего раунда финансирования в 2018 году ее оценка составляла 150 миллиардов долларов, что почти вдвое меньше стоимости JPMorgan Chase, самой дорогой в мире компании, предоставляющей финансовые услуги.

В отличие от традиционных банков, инвестиционных институтов и страховых компаний, Ant Financial построена на цифровом ядре. На «критическом пути» операционной деятельности нет рабочих. AI управляет шоу. Нет менеджера, утверждающего ссуды, нет сотрудника, предоставляющего финансовые консультации, нет представителя, уполномоченного на медицинские расходы потребителей. Без операционных ограничений, которые ограничивают традиционные компании, Ant Financial может беспрецедентно конкурировать и добиваться безудержного роста и влияния в самых разных отраслях.

Эра искусственного интеллекта начинается с появления фирм нового типа. В когорту Ant Financial входят такие гиганты, как Google, Facebook, Alibaba и Tencent, а также множество небольших, быстрорастущих компаний, от Zebra Medical Vision и Wayfair до Indigo Ag и Ocado. Каждый раз, когда мы пользуемся услугами одной из этих компаний, происходит одно и то же: вместо того, чтобы полагаться на традиционные бизнес-процессы, которыми управляют работники, менеджеры, инженеры-технологи, супервизоры или представители службы поддержки клиентов, ценность, которую мы получаем, обслуживается алгоритмами. .Генеральный директор Microsoft Сатья Наделла называет ИИ новой «средой выполнения» компании. Конечно, менеджеры и инженеры разрабатывают ИИ и программное обеспечение, которое заставляет алгоритмы работать, но после этого система приносит пользу сама по себе, за счет цифровой автоматизации или за счет использования экосистемы поставщиков за пределами фирмы. AI устанавливает цены на Amazon, рекомендует песни на Spotify, подбирает покупателей и продавцов на торговой площадке Indigo и квалифицирует заемщиков для получения ссуды Ant Financial.

Устранение традиционных ограничений меняет правила конкуренции.По мере того как цифровые сети и алгоритмы вплетаются в ткань фирм, отрасли начинают работать по-другому, и границы между ними стираются. Изменения выходят далеко за пределы цифровых фирм, поскольку более традиционные организации, сталкиваясь с новыми конкурентами, также переходят к моделям, основанным на искусственном интеллекте. Walmart, Fidelity, Honeywell и Comcast теперь активно используют данные, алгоритмы и цифровые сети, чтобы убедительно конкурировать в эту новую эру. Независимо от того, возглавляете ли вы цифровой стартап или работаете над модернизацией традиционного предприятия, важно понимать революционное влияние ИИ на операции, стратегию и конкуренцию.

Завод AI

В основе новой фирмы лежит фабрика решений — то, что мы называем «фабрикой искусственного интеллекта». Его программное обеспечение проводит миллионы ежедневных рекламных аукционов в Google и Baidu. Его алгоритмы решают, какие автомобили предлагают поездки на Didi, Grab, Lyft и Uber. Он устанавливает цены на наушники и рубашки поло на Amazon и запускает роботов, которые убирают полы в некоторых магазинах Walmart. Он позволяет использовать роботов для обслуживания клиентов в Fidelity и интерпретировать рентгеновские снимки в Zebra Medical. В каждом случае фабрика искусственного интеллекта рассматривает принятие решений как науку.Аналитика систематически преобразует внутренние и внешние данные в прогнозы, идеи и варианты выбора, которые, в свою очередь, направляют и автоматизируют рабочие процессы.

Эдди Гай

Как ни странно, искусственный интеллект, который может стимулировать стремительный рост цифровой фирмы, зачастую даже не так уж и сложен. Чтобы добиться кардинальных изменений, ИИ не обязательно должен быть предметом научной фантастики — неотличимым от человеческого поведения или имитирующим человеческое мышление, способность, которую иногда называют «сильным ИИ».«Вам нужна только компьютерная система, чтобы иметь возможность выполнять задачи, традиционно выполняемые людьми — то, что часто называют« слабым ИИ ».

При слабом ИИ фабрика ИИ уже может принимать ряд важных решений. В некоторых случаях он может управлять информационным бизнесом (например, Google и Facebook). В других случаях он будет определять, как компания создает, поставляет или эксплуатирует реальные физические продукты (например, складские роботы Amazon или Waymo, сервис беспилотных автомобилей Google). Но во всех случаях фабрики цифровых решений обрабатывают некоторые из наиболее важных процессов и операционных решений.Программное обеспечение составляет ядро ​​компании, а люди — на периферии.

Для каждого завода необходимы четыре компонента. Первый — это конвейер данных, полуавтоматический процесс, который собирает, очищает, интегрирует и защищает данные систематическим, устойчивым и масштабируемым образом. Второй — это алгоритмы, которые генерируют прогнозы о будущих состояниях или действиях бизнеса. Третий — платформа для экспериментов, на которой проверяются гипотезы относительно новых алгоритмов, чтобы убедиться, что их предложения имеют желаемый эффект.Четвертое — это инфраструктура, системы, которые встраивают этот процесс в программное обеспечение и подключают его к внутренним и внешним пользователям.

ИИ, который стимулирует стремительный рост, зачастую даже не так уж и сложен.

Возьмите поисковую систему вроде Google или Bing. Как только кто-то начинает вводить несколько букв в поле поиска, алгоритмы динамически прогнозируют полный поисковый запрос на основе терминов, которые многие пользователи вводили ранее, и прошлых действий этого конкретного пользователя.Эти прогнозы фиксируются в раскрывающемся меню («поле автозаполнения»), которое помогает пользователю быстро найти релевантный поиск. Каждое нажатие клавиши и каждый щелчок фиксируются как точки данных, и каждая точка данных улучшает прогнозы для будущих поисков. AI также генерирует обычные результаты поиска, которые берутся из ранее созданного индекса Интернета и оптимизируются в соответствии с кликами, сгенерированными по результатам предыдущих поисков. Ввод этого термина также запускает автоматический аукцион для объявлений, наиболее релевантных поисковому запросу пользователя, результаты которого формируются путем дополнительных экспериментов и циклов обучения.Любой щелчок по поисковому запросу или странице результатов поиска или вне их дает полезные данные. Чем больше поисков, тем лучше прогнозы и чем лучше прогнозы, тем больше используется поисковая система.

Снятие ограничений по масштабированию, охвату и обучению

Концепция масштаба была центральной в бизнесе, по крайней мере, со времен промышленной революции. Великий Альфред Чандлер описал, как современные промышленные фирмы могут достичь беспрецедентного уровня производства при гораздо более низких затратах на единицу продукции, давая крупным фирмам важное преимущество перед более мелкими конкурентами.Он также подчеркнул преимущества, которые компании могут получить от возможности достичь большего объема производства или разнообразия. Стремление к совершенствованию и инновациям добавило третье требование к фирмам: обучение. Масштаб, масштабы и обучение стали считаться важными факторами операционной деятельности фирмы. И в течение долгого времени они поддерживались четко определенными бизнес-процессами, которые полагаются на персонал и руководство для предоставления продуктов и услуг клиентам, и которые подкрепляются традиционными ИТ-системами.

После сотен лет постепенных улучшений промышленной модели цифровая фирма радикально меняет масштаб, масштабы и парадигму обучения. Процессы, управляемые искусственным интеллектом, можно масштабировать гораздо быстрее, чем традиционные процессы, они обеспечивают гораздо больший масштаб, поскольку их можно легко связать с другими оцифрованными предприятиями и создавать невероятно мощные возможности для обучения и совершенствования — например, способность производить еще более точные и сложные модели поведения клиентов, а затем соответствующим образом адаптировать услуги.

В традиционных операционных моделях масштаб неизбежно достигает точки, при которой он приносит убывающую отдачу. Но мы не обязательно наблюдаем это в моделях, основанных на искусственном интеллекте, в которых отдача от масштаба может продолжать расти до невиданных ранее уровней. А теперь представьте, что происходит, когда компания, основанная на искусственном интеллекте, конкурирует с традиционной фирмой, обслуживая тех же клиентов с аналогичным (или лучшим) ценностным предложением и гораздо более масштабируемой операционной моделью.

Мы называем такое противостояние «столкновением».«Поскольку и обучение, и сетевой эффект усиливают влияние объема на создание стоимости, фирмы, построенные на цифровом ядре, могут превосходить традиционные организации. Рассмотрим результат, когда Amazon сталкивается с традиционными розничными продавцами, Ant Financial — с традиционными банками, а Didi и Uber — с традиционными услугами такси. Как утверждали Клейтон Кристенсен, Майкл Рейнор и Рори Макдональд в своей книге «Что такое подрывные инновации?» (HBR, декабрь 2015 г.), такие нарушения конкуренции не соответствуют модели нарушения. Коллизии не вызваны конкретным нововведением в технологии или бизнес-модели.Они являются результатом появления фирмы совершенно другого типа. И они могут коренным образом изменить отрасли и изменить характер конкурентного преимущества.

Обратите внимание, что операционным моделям, управляемым ИИ, может потребоваться довольно много времени, чтобы создать экономическую ценность, близкую к той, которую традиционные операционные модели генерируют в масштабе. Сетевые эффекты не приносят особой пользы, пока не достигнут критической массы, и большинство вновь применяемых алгоритмов страдают от «холодного старта» до получения адекватных данных.Ant Financial быстро росла, но ее основной платежный сервис Alipay, который был запущен в 2004 году компанией Alibaba, занял годы, чтобы достичь нынешнего объема. Это объясняет, почему руководителям, укоренившимся в традиционной модели, сначала трудно поверить в то, что цифровая модель когда-нибудь догонит их. Но как только цифровая операционная модель действительно заработает, она сможет принести гораздо более высокую ценность и быстро обогнать традиционные компании.

Столкновения между компаниями, основанными на искусственном интеллекте, и традиционными фирмами происходят в разных отраслях: программное обеспечение, финансовые услуги, розничная торговля, телекоммуникации, СМИ, здравоохранение, автомобили и даже агробизнес.Трудно представить себе бизнес, который не сталкивается с острой необходимостью оцифровывать свою операционную модель и реагировать на новые угрозы.

Восстановление традиционных предприятий

Для руководителей традиционных фирм конкуренция с цифровыми конкурентами означает нечто большее, чем просто развертывание корпоративного программного обеспечения или даже построение конвейеров данных, понимание алгоритмов и эксперименты. Это требует перестройки организационной структуры и операционной модели фирмы. В течение очень, очень долгого времени компании оптимизировали свой масштаб, объем и возможности обучения за счет большей фокусировки и специализации, что привело к разрозненным структурам, которые сегодня имеют подавляющее большинство предприятий.Поколения информационных технологий не изменили эту схему. На протяжении десятилетий ИТ использовались для повышения эффективности конкретных функций и организационных единиц. Традиционные корпоративные системы часто даже усиливают разрозненность и разделение функций и продуктов.

Бункеры, однако, являются врагом роста с помощью искусственного интеллекта. Действительно, такие компании, как Google Реклама и MyBank Ant Financial, сознательно отказываются от них и предназначены для использования интегрированного ядра данных и единой согласованной базы кода.Когда у каждого разрозненного хранилища в фирме есть свои собственные данные и код, внутренняя разработка фрагментирована, и почти невозможно наладить связи между разрозненными хранилищами или с внешними бизнес-сетями или экосистемами. Кроме того, почти невозможно развить полное понимание клиента, которое одновременно обслуживает и привлекает каждый отдел и функцию. Поэтому, когда фирмы создают новое цифровое ядро, им следует избегать создания в нем глубоких организационных подразделений.

Хотя переход к модели, основанной на искусственном интеллекте, является сложной задачей, многие традиционные фирмы, с некоторыми из которых мы работали, начали переходить на него.Фактически, в недавнем исследовании мы рассмотрели более 350 традиционных предприятий как в сфере услуг, так и в производственном секторе и обнаружили, что большинство из них начали уделять больше внимания данным и аналитике в своих организациях. Многие из них, включая Nordstrom, Vodafone, Comcast и Visa, уже сделали важные шаги, оцифровав и изменив ключевые компоненты своих операционных моделей, а также разработав сложные платформы данных и возможности искусственного интеллекта. Вам не обязательно быть программным стартапом, чтобы оцифровать критически важные элементы вашего бизнеса, но вам нужно противостоять разрозненным и фрагментированным устаревшим системам, добавлять возможности и переоснащать свою культуру.(Для более подробного ознакомления с ключевыми принципами, которые должны стимулировать такие преобразования, см. Врезку «Использование ИИ в ядре фирмы».)

Fidelity Investments использует ИИ для поддержки процессов в важных областях, включая обслуживание клиентов, понимание клиентов и рекомендации по инвестициям. Его инициативы в области искусственного интеллекта основаны на многолетних усилиях по интеграции активов данных в одно цифровое ядро ​​и реорганизации организации вокруг него. Работа ни в коем случае не завершена, но влияние ИИ уже очевидно во многих важных сценариях использования в компании.Чтобы противостоять Amazon, Walmart перестраивает свою операционную модель на основе ИИ и заменяет традиционные разрозненные корпоративные программные системы интегрированной облачной архитектурой. Это позволит Walmart использовать свои уникальные информационные ресурсы во множестве новых мощных приложений, а также автоматизировать или улучшить растущее число рабочих задач с помощью ИИ и аналитики. В Microsoft Наделла делает ставку на будущее компании на полную трансформацию ее операционной модели.

Переосмысление стратегии и возможностей

По мере того как компании, использующие ИИ, сталкиваются с традиционными предприятиями, конкурентное преимущество все больше определяется способностью формировать цифровые сети и управлять ими.(См. «Почему одни платформы процветают, а другие — нет», HBR, январь – февраль 2019 г.) Организации, которые преуспевают в объединении предприятий, агрегировании данных, которые передаются между ними, и извлечении их ценности с помощью аналитики и искусственного интеллекта, будут иметь преимущество. . Традиционные сетевые эффекты и кривые обучения, основанные на искусственном интеллекте, будут усиливать друг друга, умножая влияние друг друга. Вы можете увидеть эту динамику в таких компаниях, как Google, Facebook, Tencent и Alibaba, которые стали мощными «узловыми» фирмами, накапливая данные через свои многочисленные сетевые соединения и создавая алгоритмы, необходимые для усиления конкурентных преимуществ в разнородных отраслях.

Между тем традиционные подходы к стратегии, ориентированные на традиционный отраслевой анализ, становятся все более неэффективными. Возьмите автомобильные компании. Они сталкиваются с множеством новых цифровых угроз, от Uber до Waymo, каждая из которых исходит за пределами традиционных отраслевых границ. Но если руководители автопроизводителей думают об автомобилях вне их традиционного отраслевого контекста, как об услугах с широкими связями и поддержкой ИИ, они могут не только защитить себя, но и раскрыть новые ценности — с помощью возможностей местной торговли, рекламы, новостей и развлекательных каналов с учетом местоположения. услуги и так далее.

Руководителям однажды посоветовали придерживаться тех предприятий, которые они знали, в тех отраслях, которые они понимали. Но синергия в алгоритмах и потоках данных не признает границ отрасли. И организации, которые не могут использовать клиентов и данные за пределами этих границ, скорее всего, окажутся в очень невыгодном положении. Вместо того чтобы сосредотачиваться на отраслевом анализе и управлении внутренними ресурсами компаний, стратегия должна быть сосредоточена на связях, которые фирмы создают между отраслями, и на потоке данных через сети, которые используют фирмы.

Все это имеет серьезные последствия для организаций и их сотрудников. Машинное обучение изменит характер практически любой работы, независимо от профессии, уровня дохода или специализации. Несомненно, операционные модели, основанные на искусственном интеллекте, могут привести к реальным человеческим жертвам. Некоторые исследования показывают, что, возможно, половину текущей работы можно заменить системами с поддержкой ИИ. Мы не должны этому удивляться. В конце концов, операционные модели уже давно разработаны, чтобы сделать многие задачи предсказуемыми и повторяемыми.Например, процессы сканирования продуктов при оформлении заказа, приготовления латте и удаления грыж выигрывают от стандартизации и не требуют слишком большого творческого потенциала человека. Хотя улучшения ИИ обогатят многие рабочие места и откроют множество интересных возможностей, кажется неизбежным, что они также вызовут повсеместное нарушение работы во многих профессиях.

Перемещение будет включать не только замену работы, но и эрозию традиционных возможностей. Практически в любой ситуации фирмы, использующие ИИ, берут на себя узкоспециализированные организации.В мире, основанном на искусственном интеллекте, требования к конкуренции связаны не столько со специализацией, сколько с универсальным набором возможностей в области поиска, обработки, аналитики и разработки алгоритмов данных. Эти новые универсальные возможности меняют стратегию, бизнес-дизайн и даже лидерство. Стратегии в очень разнообразных цифровых и сетевых компаниях теперь выглядят одинаково, как и факторы операционной эффективности. Отраслевой опыт стал менее критичным. Когда Uber искал нового генерального директора, совет директоров нанял кого-то, кто ранее руководил цифровой фирмой — Expedia, а не компанией по прокату лимузинов.

Мы переходим от эпохи ключевых компетенций, которые различаются от отрасли к отрасли, к эпохе, сформированной данными и аналитикой и основанной на алгоритмах, которые размещены в облаке, чтобы любой мог использовать. Вот почему Alibaba и Amazon могут конкурировать в столь разных отраслях, как розничная торговля и финансовые услуги, здравоохранение и кредитный скоринг. В этих секторах сейчас много схожих технологических основ и используются общие методы и инструменты. Стратегии смещаются от традиционной дифференциации, основанной на стоимости, качестве и капитале бренда, и специализированном, вертикальном опыте, к преимуществам, таким как положение в бизнес-сети, накопление уникальных данных и развертывание сложной аналитики.

Вызов лидерства

Хотя это может дать толчок огромному росту, устранение операционных ограничений не всегда хорошо. Системы без трения нестабильны, и их трудно остановить, когда они находятся в движении. Представьте себе машину без тормозов или лыжника, который не может сбавить скорость. Цифровой сигнал — например, вирусный мем — может быстро распространяться по сетям, и остановить его практически невозможно даже для организации, которая изначально его запустила, или для организации, контролирующей ключевые узлы сети.Без трений видео с подстрекательством к насилию или фальшивым или манипулятивным заголовком может быстро распространиться среди миллиардов людей в различных сетях, даже трансформируясь для оптимизации переходов по ссылкам и загрузок. Если вам нужно отправить сообщение, AI предлагает фантастический способ охватить огромное количество людей и персонализировать это сообщение для них. Но рай для маркетологов может стать кошмаром для горожан.

Цифровые операционные модели могут объединять вред и ценность. Даже если намерение положительное, потенциальный недостаток может быть значительным.Ошибка может подвергнуть крупную цифровую сеть разрушительной кибератаке. Если алгоритмы не проверять, они могут усилить предвзятость и дезинформацию в массовом масштабе. Риски могут быть значительно увеличены. Подумайте, как цифровые банки беспрецедентно собирают сбережения потребителей. Ant Financial, которая сейчас управляет одним из крупнейших фондов денежного рынка в мире, доверяет сбережения сотен миллионов китайских потребителей. Риски значительны, особенно для относительно непроверенной организации.

Цифровой масштаб, масштабы и обучение создают множество новых проблем — не только проблемы конфиденциальности и кибербезопасности, но и социальные потрясения, вызванные концентрацией рынка, дислокациями и усилением неравенства. Учреждения, призванные следить за бизнесом — например, регулирующие органы — изо всех сил пытаются успевать за всеми быстрыми изменениями.

В мире, управляемом искусственным интеллектом, как только предложение соответствует рынку, количество пользователей, вовлеченность и доходы могут резко возрасти.Однако становится все более очевидным, что неограниченный рост опасен. Потенциал для предприятий, использующих цифровые операционные модели, огромен, но необходимо четко учитывать возможность нанесения широкомасштабного вреда.

Post A Comment

Ваш адрес email не будет опубликован. Обязательные поля помечены *