Греф нейронные сети: Ответ Грефу. Почему электронное правосудие невозможно

Содержание

Ответ Грефу. Почему электронное правосудие невозможно

Массовое применение технологий, основанных на искусственном интеллекте, в юридической сфере стали обсуждать в начале года. В январе с заявлением о том, что робот-юрист оставит без работы 3 000 сотрудников «Сбербанка», выступил зампред правления финансовой организации Вадим Кулин. В середине года председатель правления Герман Греф сообщил, что банк уже уволил несколько сот человек.

«В прошлом году 450 юристов, которые у нас готовят иски, ушли в прошлое, были сокращены», — отметил Греф. При этом он отметил, что юристы без знаний искусственного интеллекта и понимания того, как работают современные технологии, уже не нужны — им стоит «забыть профессию». Заявление руководителей «Сбербанка» взволновало юридическое сообщество — действительно ли уже можно заменить сотрудников юридических департаментов электронными помощниками?

Незаменимые люди

«Сейчас модно говорить обо всем, что связано с LegalTech, но мы не должны ставить роботизацию единственной задачей по развитию правовой системы», — отметил на конференции по LegalTech в «Сколково» заместитель министра юстиции Юрий Любимов. По его мнению, системы на базе искусственного интеллекта могут выполнять разве что сервисные функции и упрощать жизнь юриста.

Реклама на Forbes

Его поддержал коллега, заместитель министра юстиции Денис Новак. «У технологий, использующих нейронные сети, большой потенциал. Действительно, при обобщении информации они могут подмечать определенные закономерности», — отметил Новак. Однако он добавил, что при этом обычно забывают: «У того же нотариуса, который, как сейчас говорят, может быть заменен электронной системой, главной задачей является не идентификация лица. Прежде всего нотариус обязан разъяснить смысл и значение проекта сделки и проверить, соответствует ли ее содержание намерениям сторон». Замминистра дал понять, что такая задача вряд ли под силу «электронному нотариусу».

Рассуждая об использовании ИИ непосредственно в судебном процессе, Новак отметил, что нельзя на каждый случай предусмотреть норму права, которая все учтет. Если не учитывать особенности в поведении сторон и обстоятельства, то это может привести к несправедливому результату. Он добавил, что законодатель делегирует суду достраивание правовой нормы: «Суд смотрит, нет ли чего-то особенного в поведении сторон. И иногда интуитивно подходит к решению»,  — отметил Новак.

Бывший председатель Высшего арбитражного суда (упразднен в конце 2014 года) Антон Иванов также считает, что адепты новых тенденций склонны преувеличивать влияние изменившихся условий на право и общество. По его мнению, чтобы перевести на компьютерный язык нормы, содержащие многозначные термины, придется изменить множество законов — это титаническая задача. Иванов отмечает, что крайне сложно, если вообще возможно, перевести на машинный язык такие понятия, как «злоупотребление правом» или «внутреннее убеждение судьи».

«Сложнее всего машинизировать свободную волю человека. Жизнь многогранная, а жесткое следование нормам раздражает людей. Государство, где правила будут устанавливать роботы, будут полицейским. А полицейское государство никому не нравится», — заявил Антон Иванов. Он добавил, что полная «машинизация» невозможна, пока люди действуют нелогично.

«Так что о массовом сокращении юристов речь вряд ли идет», — успокоил собравшихся юристов Антон Иванов.

Задачи для ИИ

Директор центра юридических технологий фонда «Сколково» Антон Пронин считает, что неправильно сосредотачиваться на замене человека системой с ИИ: «У LegalTech сейчас две ключевые задачи. Во-первых, это автоматизация процессов. К слову, в различных сферах хозяйственной деятельности (ретейл, финансы, управление предприятием) с этой целью уже много лет используется программное обеспечение. Юриспруденция, вероятно, одна из немногих отраслей, в которой это пока не так распространено», — отметил он. В качестве удачного примера автоматизации он привел сколковского резидента, который создал решение, позволяющее организовать работу с документами в компании, учитывая при этом влияние внешних событий.

«При согласовании договора ситуация может внезапно поменяться: закончился срок доверенности, подписант недоступен, изменились отдельные условия. Эти события требуют гибкого подхода к автоматизации процессов. Исследовательская компания Gartner специально для таких случаев ввела понятие «событийность». Flexbby позволяет учитывать все эти нюансы при автоматизации», — рассказал Антон Пронин.

Второй пласт задач лежит в области технологий для принятия решений. Но тут опять же не идет речь о том, что «электронные судьи» будут осуществлять правосудие. Искусственный интеллект может применяться как помощник, источник second opinion (второе мнение), как консультант, не принимающий решений, отметил эксперт. «Например, компания «Правовед.ру», создала робота-юриста, который отвечает пользователям сайта на различные вопросы из сферы защиты прав потребителей. Робот подсказывает правовые аспекты, при этом общаться с ним можно на естественном языке. Однако сам процесс принятия решений — всегда будет оставаться за человеком, поскольку мы не сможем оцифровать такие понятия как «норма», «мораль», «совесть». Они алогичны и не поддаются переводу на машинный язык», — заключил Антон Пронин.

60-70% ипотеки в Сбербанке одобряется при помощи нейронных сетей

Сегодня около 100% потребительских кредитов физическим лицам в Сбере одобряется при помощи нейронных сетей, и только какие-то жалобы или заявления клиентов, не согласных с принятым решением, рассматриваются людьми, рассказал журналистам на международной конференции AI Journey глава Сбера Герман Греф.

«Что касается корпоративного сектора, то примерно 80% кредитов малого бизнеса также выдается при помощи нейросети, и на принятие решения уходит около 3 минут. По оборотному кредитованию компаний среднего и крупного бизнеса примерно 55% решения также принимаются без участия людей и всего за 7 минут. Что касается ипотеки, то ипотека у нас пока полностью не переведена на нейронные сети, так как это сложный продукт, но примерно 60-70% процесса удалось автоматизировать – через «Дом.Клик» на получение такого кредита уходит около 2 минут», — отметил председатель правления Сбера.

По его словам, в том, что касается корпоративных клиентов, практически из всех процессов в Сбере уже исключен людской труд – исключением является разве что структурирование сложных сделок.

«Сами сложные сделки собираются вручную, но все, что касается комплаенса, робота-юриста, анализа финансового состояния, все финансовые модели составляются автоматически. Если на сегодняшний день процессы еще не автоматизированы на 100%, то каждый из имеющихся в банке процессов реализуется с использованием ИИ хотя бы на 50%. Это вопрос времени – я думаю, что нужно 3-4 года на то, чтобы практически полностью уйти от ручного труда по подавляющему большинству наших продуктов», — говорит Герман Греф.

Глава Сбера полагает, что 20-30% сложных продуктов останутся прерогативой людей – финансовой организации по-прежнему нужны будут аналитики и человеческий креатив для решения нестандартных ситуаций. Все остальное поддается стандартизации и принятию решений с использованием ИИ, заключил Греф.

Нейронные сети вместо юристов? — Хабр Q&A

Да. Слышал такую цитату. Вот только есть способы куда проще нейронных сетей, если имеется ввиду именно написание исков. Уже много лет для этого используются шаблоны, они же «болванки», они же «рыбы» (как ни назови). Вот только если написание исков — это и есть работа юриста в понимании Грефа, то… Не знаю, что тут и сказать..
А прения в суде, а отзыв на иск, а представление доказательств (я уж не говорю об их поиске), а еще много-много работы, которая требует формального мышления — это если только про иски говорить.


Может быть Греф имел ввиду тот случай, когда вот взял кто-то кредит в СБ, не вернул и нужно вчинять иск. Ну, так есть способы дешевле нейронных сетей. Там же доказательная база очевидна. Например студенты курса 3-го, 4-го. Тоннами их писАть будут за долю малую. Конечно, сейчас таких юристов выпускают из вузов, что хоть стой, хоть падай, но и они с такой мартышкиной работой справятся.
Но разве справится нейронная сеть с процессом досудебного урегулирования, переговорами (что, собственно делает процесс обращения в суд вообще ненужным). Мне наверное сложно судить, что там у Грефа в голове. Я почти 3 десятка лет в профессии, несколько дипломов (полученных не за деньги), преподавательская деятельность. Могу сказать, что объем накопленных знаний и опыта таков, что я уже не вполне юрист, а что-то вроде «юрист+экономист+наставник+etc». Т.е. в каком-то смысле перерос собственно профессию, работаешь на стыке многих областей.
Кем меня можно заменить? Ну, наверное ИИ. Что бы под этим словом ни понималось. Но это не при моей жизни точно.
Кстати, гражданам и мелким конторам у монстров типа СБ выигрывать легко. Качество противостоящей тебе в суде стороны — ниже плинтуса. Думаю, это связано с тем, что в корпорации все обязаны быть глупее своего начальника. Просто обязаны. Ну, а поскольку и начальники сами далеко не Спинозы, то… Умные люди в корпорациях как-то не очень распространены. Там больше «винтичный» принцип работает при подборе кадров.
Так что, коллега, не переживайте, если вы профессионал, то вас такие высказывания волновать не должны.
К тому же следует понимать, что Греф играет свою роль (а они ВСЕ в паблике играют свои четко определенные роли) этакого инноватора, интеллектуала и поэтому постоянно что-то такое говорит. Ну, попонтовался человек. С кем не бывает.
Всем наилучшего.

Сбер намерен через 3-4 года автоматизировать 70-80% банковских операций — Газета.Ru

Сегодня около 100% потребительских кредитов физическим лицам в Сбере одобряется при помощи нейронных сетей, и только какие-то жалобы или заявления клиентов, не согласных с принятым решением, рассматриваются людьми, рассказал журналистам на международной конференции AI Journey глава Сбера Герман Греф.

«Что касается корпоративного сектора, то примерно 80% кредитов малого бизнеса также выдается при помощи нейросети, и на принятие решения уходит около 3 минут. По оборотному кредитованию компаний среднего и крупного бизнеса примерно 55% решения также принимаются без участия людей и всего за 7 минут. Что касается ипотеки, то ипотека у нас пока полностью не переведена на нейронные сети, так как это сложный продукт, но примерно 60-70% процесса удалось автоматизировать – через «Дом.Клик» на получение такого кредита уходит около 2 минут», — отметил председатель правления Сбера.

По его словам, в том, что касается корпоративных клиентов, практически из всех процессов в Сбере уже исключен людской труд – исключением является разве что структурирование сложных сделок.

«Сами сложные сделки собираются вручную, но все, что касается комплаенса, робота-юриста, анализа финансового состояния, все финансовые модели составляются автоматически. Если на сегодняшний день процессы еще не автоматизированы на 100%, то каждый из имеющихся в банке процессов реализуется с использованием ИИ хотя бы на 50%.

Это вопрос времени – я думаю, что нужно 3-4 года на то, чтобы практически полностью уйти от ручного труда по подавляющему большинству наших продуктов», — говорит Герман Греф.

Глава Сбера полагает, что 20-30% сложных продуктов останутся прерогативой людей – финансовой организации по-прежнему нужны будут аналитики и человеческий креатив для решения нестандартных ситуаций. Все остальное поддается стандартизации и принятию решений с использованием ИИ, заключил Греф.

Греф заявил об отсутствии у Сбербанка 100-процентной защиты сбережений | Новости | Известия

Сбербанк пока не имеет технологии, которая бы гарантировала 100-процентную защиту сбережений. Об этом заявил глава финансовой организации Герман Греф на ежегодной встрече с клиентами премиального сегмента «Сбербанк первый» во вторник, 26 ноября.

«Проблема в том, что мы, наверное, одни из самых старых игроков на российском рынке, которые занимаются биометрией. И даже у нас пока еще нет 100% защищенной технологии, которая бы вам гарантировала сохранение всех ваших сбережений или 100% подтверждения вашей идентификации всех ваших действий», — цитирует ТАСС слова Грефа.

По словам президента Сбербанка, не только банк использует нейронные сети, но и мошенники. «Мы придумываем всевозможные меры противодействия разным вещам, которые они придумывают, — они придумают новые вещи», — отметил он.

Греф добавил, что банки заинтересованы в том, чтобы использовать в удаленных каналах биометрию, так как это выгодно как финансовым организациям, так и клиентам. Он отметил, что сейчас все ошибки, допущенные Сбербанком, покрываются за счет компании. Если в организации неправильно идентифицировали человека, то в ней и несут убытки, их никогда не возлагают на клиента.

По мнению банкира, биометрические технологии еще несовершенны, поэтому сейчас не стоит обязывать кредитные организации использовать единую биометрическую систему для проведения юридически значимых решений.

В интервью журналу Forbes 22 ноября Греф назвал «суровым уроком» утечку личных данных клиентов Сбербанка. В финансовом учреждении планируют пересмотреть режим доступа к персональной информации и функциональность системы защиты.

В начале октября сотрудник Сбербанка признался, что украл личные данные клиентов. В ходе расследования выяснилось, что он продал 5 тыс. учетных записей владельцев кредитных карт одной из преступных группировок в «теневом интернете».

О хищении данных клиентов Сбербанка стало известно 2 октября, по факту которого банк инициировал служебное расследование. Изначально сообщалось об утечке персональной информации не менее 200 клиентов. В совершении преступления подозревались 35 сотрудников финансовой организации.

ЧИТАЙТЕ ТАКЖЕ

В ближайшее время человечество столкнется с проблемой свободы воли: главное из разговора Германа Грефа и Ольги Усковой о будущем — Тренинговый портал Беларуси

19 февраля в МИСиС прошла визионерская лекция главы Сбербанка Германа Грефа и основательницы Cognitive Technologies Ольги Усковой. Они обсудили, как искусственный интеллект меняет привычки людей, бытовую реальность и бизнес-модели.

Зачем впускать в жизнь искусственный интеллект

ГЕРМАН ГРЕФ

Несколько лет назад на форуме в Давосе я задал его участникам вопрос: «Что такое искусственный интеллект?» Основатель и президент корпорации Dell Майкл Делл тогда произнес фразу, которая потрясла меня своей простотой: «Искусственный интеллект — это самодвижущийся lean». Компания Toyota подарила миру потрясающий инструмент, который называется TPS (Toyota Production System — производственная система Toyota). Американцы ее придумали, а японцы реализовали. Они внедрили lean production (бережливое производство), которое зиждется на кайдзене — технологии ежедневных маленьких улучшений.

Так вот: искусственный интеллект — это две сетки, одна из которых запускает процесс, а другая его анализирует и оптимизирует. Искусственный интеллект радикально меняет весь мир и производительность труда, потому что способен управлять процессом и самостоятельно совершенствоваться.

Дальнейшее развитие искусственного интеллекта связано с AGI (Artificial general intelligence — универсальным искусственным интеллектом). Но реализация AGI — это невероятно трудная задача, которая требует нового подхода во всем, начиная от чипов и заканчивая алгоритмами. Сегодня у нас нет окончательного решения, но мы на подходе к следующему шагу на пути к освоению этой технологии. Это завораживает ученых и инженеров. И в основе этого лежит не страх, а интерес.

ОЛЬГА УСКОВА

Каждый биологический вид имеет свой уровень социальной резистенции — то есть количество социальных контактов, которое он выдерживает без нарушения психики. Появление интернета и социальных сетей способствовало тому, что человечество перевалило за критический порог своей резистенции. Психических расстройств сейчас гораздо больше, чем онкозаболеваний. Мы не справляемся — поэтому нам надо себя прокачать. Для этого нам нужны цифровые помощники вроде ИИ. Без них мы неконкурентоспособны.

Трансгуманизм — течение, которое почти стало новой религией, — говорит о том, что человека должны дополнять чипы или гаджеты. На самом деле, все мы трансгуманоиды уже сейчас. Мы уже сейчас устанавливаем на машины ADAS [advanced driver-assist systems — система помощи водителю] — искусственные мозги для беспилотного транспорта. Я уверена, что через 5 лет вы не сможете выехать из дома без этой системы, так же как без своего смартфона сейчас.

 

У вас нет выбора. Вы не должны бояться ИИ и бороться с прогрессом — вы должны его возглавить.

 

Как искусственный интеллект меняет бизнес

ГЕРМАН ГРЕФ

Я помню свой разговор с президентом компании Volkswagen, когда только появился Uber. Он сказал: «Мы не боимся самодвижущихся машин, мы не боимся Tesla, потому что у нас инженеры не хуже. Как только появится спрос на электрические машины, мы тут же произведем машину лучше, чем Tesla. Мы боимся новых бизнес-моделей, которых не понимаем, мы боимся Uber, потому что наши мозги не заточены под это. У нас инженерные мозги — мы можем делать лучшее железо, но такую бизнес-модель мы не понимаем, поэтому мы решили на всякий случай вложить деньги в несколько компаний, которые занимаются такси».

 

Это и есть то неизвестное для предпринимателей, которые не спят ночами. Их не страшит то, с чем они сталкивались, и те вызовы, на которые они научились отвечать. Но есть вызовы, к которым они не готовы, и это очень большая проблема для них.

Искусственный интеллект и диджитализация привели к тому, что мы увидели принципиально новый бизнес-ландшафт. У Airbnb и Uber нет большого серьезного наследия. Лидерами рынка стали компании, которые основаны на знаниях, человеческом интеллекте.

Сейчас идет очень много споров, хороши или плохи крупные компании и нужно ли бороться с монополиями. 80% всех инноваций в мире внедряются именно крупными корпорациями. Они изобретают новые технологии посредством больших инвестиций — но маленькие компании создают новые бизнес-модели. Крупные игроки их боятся. Небольшая компания может сделать нехитрую нейронную сеть, внедрить новую бизнес-модель и убрать с рынка тот же Google. Упор надо делать на развитие маленьких компаний.

Что искусственный интеллект дал Сбербанку

ГЕРМАН ГРЕФ

Мне очень нравится фраза Гэри Хэмела [профессора London Business School]: «Победитель — это не номер один на рынке, а тот, кто первым достигнет будущего». Мы верим в то, что выбранная нами бизнес-модель экосистемы — это бизнес-модель будущего. Мы не выживем как банк, и другие тоже не выживут.

Билл Гейтс говорил, что в будущем банкинг, конечно же, будет востребован, а вот будут ли востребованы банки — совсем не очевидно. То же самое можно сказать про любую компанию. Все компании на рынке должны подвергаться ежедневной трансформации.

Главная проблема, с которой нашей команде пришлось столкнуться в самом начале, — это очереди. На первом этапе мы много вложили в то, чтобы преобразовать технологии внутри Сбербанка. Первое, что мы сделали, — изменили всю операционку. На тот момент в бэк-офисе операциями занимались около 60 тыс. человек. За 12 лет Сбербанк вырос в объеме операций примерно в 20 раз, при этом в бэк-офисе на данный момент — 5 тыс. человек. Остальные 55 тыс. мы вывели во фронт-офис.

Весь клиентский менеджмент сейчас — это те люди, которые не создавали стоимости, но благодаря искусственному интеллекту стали встречать, обслуживать и, главное, видеть клиента.

Как жить дальше

ОЛЬГА УСКОВА

Человечество сейчас находится на развилке. Большая его часть в ближайшее время столкнется с проблемой свободы воли, к которой так стремилась. И никто не скажет, как лично вам жить дальше. Сопьетесь вы или прокачаете себя настолько, что сможете выполнять новую функцию и продолжите свой рост, — зависит только от вас.

Чтобы поднять свой уровень жизни и сделать ее интереснее, мы должны объединяться в нейронные сети. Например, экосистема, которую создал Сбербанк, как раз сделала нас звеньями одного коллективного разума, одной нейронной сети. Благодаря ей мы прокачали себя и увеличили свои возможности в 10—15 раз.

Еще один пример: прямо сейчас вы слушаете то, что мы говорим, и образуете коллективный разум, между вами есть связь. Но эта связь формируется по-разному. Например, Шнуров работает простыми нейронными способами. Он кричит «жопа», и весь зал за ним повторяет, все связываются на этом слове. Но после концерта, кроме этого локального нервного возбуждения, толпа ничего не приобретает. Когда мы вместе говорим о том, как нам существовать дальше, образуются связи совсем другого типа.

 

Такая связь на уровне социальных сетей биологически и энергетически не возникает. Чтобы стать частью коллективного разума и прокачать себя таким образом, обязательно нужен офлайн.

ГЕРМАН ГРЕФ

Занимайтесь искусственным интеллектом вне зависимости от профессии, которую вы сегодня получаете. ИИ — это технология будущего и универсальная компетенция абсолютно во всех областях знания. Сегодня все новое рождается на стыке технологий. Digital skills [технологический дизайн, программирование, анализ больших данных], так же как и soft skills [адаптивность, умение учиться и договариваться], являются ключевыми навыками будущего.

 

Не тратьте время зря — прокачивайте себя в этом. От развития этих компетенций зависит ваш успех в любой профессии.

 

Мой хороший друг Рэй Далио, основатель крупнейшего хедж-фонда Bridgewater, много лет убеждал меня: «Ты никуда не денешься от медитации — все равно этим кончишь». В этом году он прислал своего тренера, который занимался со Стивом Джобсом, а сейчас занимается с Илоном Маском и Джеффом Безосом. Он пробыл у нас неделю, и я понял, что никуда не денусь от медитации. Медитация два раза в день — это то, что позволяет перезагрузить мозг и держать себя вне информационного шума.

Мы представить не можем, какое количество вариантов использовать время для саморазвития появится в будущем. А саморазвитие — процесс, flow — это и есть, в конце концов, счастье. Если человек останавливается в своем развитии — о каком счастье мы говорим? Счастье не конечный процесс, а процесс саморазвития. Давайте работать над тем, чтобы высвободить время человека и дать ему возможность почувствовать себя счастливым в процессе занятия любимым делом.

Источник: incrussia.ru

Греф раскритиковал студентов и сказал, почему не возьмет их работать к себе

Глава Сбербанка смотрит в будущее Фото: Владимир Андреев © URA. RU

Глава Сбербанка Герман Греф во время своего выступления перед выпускниками юридического института в Калининграде, 21 июля, рассказал, каких студентов после вуза не возьмут работать в финансовую организацию.

По словам Грефа, чтобы попасть на престижную работу, молодым специалистам необходимо хорошо разбираться в современных компьютерных технологиях, а также обладать знаниями в сфере искусственного интеллекта.

«Назовите мне типы нейронных сетей? Не знаете, двоечники! Хочу вам сказать, что это недопустимо. Вы — студенты вчерашнего дня. Товарищи юристы, забудьте свою профессию», — цитирует «Федеральное агентство новостей» главу Сбербанка.

Также Греф подчеркнул, что в 2016 году из банка ушли 450 юристов, занимающихся подготовкой исков, так как нейронные сети готовят документы лучше, чем выпускники Балтийского федерального университета.

По мнению главы финансовой организации, студентам нужно выбрать курс «Сomputer science» и изучить его, чтобы стать современным специалистом.

Глава Сбербанка Герман Греф во время своего выступления перед выпускниками юридического института в Калининграде, 21 июля, рассказал, каких студентов после вуза не возьмут работать в финансовую организацию. По словам Грефа, чтобы попасть на престижную работу, молодым специалистам необходимо хорошо разбираться в современных компьютерных технологиях, а также обладать знаниями в сфере искусственного интеллекта. «Назовите мне типы нейронных сетей? Не знаете, двоечники! Хочу вам сказать, что это недопустимо. Вы — студенты вчерашнего дня. Товарищи юристы, забудьте свою профессию», — цитирует «Федеральное агентство новостей» главу Сбербанка. Также Греф подчеркнул, что в 2016 году из банка ушли 450 юристов, занимающихся подготовкой исков, так как нейронные сети готовят документы лучше, чем выпускники Балтийского федерального университета. По мнению главы финансовой организации, студентам нужно выбрать курс «Сomputer science» и изучить его, чтобы стать современным специалистом.

Обучайте нейронные сети с помощью шума, чтобы уменьшить переоснащение

Последнее обновление: 6 августа 2019 г.

Обучение нейронной сети с небольшим набором данных может привести к тому, что сеть запомнит все обучающие примеры, что, в свою очередь, приведет к переобучению и снижению производительности на наборе данных с задержкой.

Небольшие наборы данных также могут представлять собой более сложную задачу отображения для обучения нейронных сетей, учитывая неоднородную или разреженную выборку точек в многомерном входном пространстве.

Один из подходов к тому, чтобы сделать входное пространство более плавным и легким для изучения, — добавить шум к входным данным во время обучения.

В этом посте вы узнаете, что добавление шума в нейронную сеть во время обучения может повысить надежность сети, что приведет к лучшему обобщению и более быстрому обучению.

Прочитав этот пост, вы узнаете:

  • Небольшие наборы данных могут усложнить обучение нейронным сетям, а примеры можно запомнить.
  • Добавление шума во время обучения может сделать процесс обучения более надежным и уменьшить ошибку обобщения.
  • Шум традиционно добавляется к входам, но также может быть добавлен к весам, градиентам и даже функциям активации.

Начните свой проект с моей новой книги Better Deep Learning, включающей пошаговых руководств и файлы с исходным кодом Python для всех примеров.

Начнем.

Обучение нейронных сетей с помощью шума для уменьшения переобучения
Фотография Джона Флэннери, некоторые права защищены.

Обзор

Это руководство разделено на пять частей; они:

  1. Задача малых обучающих наборов данных
  2. Добавить случайный шум во время обучения
  3. Как и где добавить шум
  4. Примеры добавления шума во время тренировки
  5. Советы по добавлению шума во время тренировки

Задача малых наборов обучающих данных

Небольшие наборы данных могут вызвать проблемы при обучении больших нейронных сетей.

Первая проблема заключается в том, что сеть может эффективно запоминать обучающий набор данных. Вместо того, чтобы изучать общее сопоставление входных данных с выходными, модель может изучать конкретные примеры входных данных и связанные с ними выходные данные. Это приведет к тому, что модель будет хорошо работать с обучающим набором данных и плохо работать с новыми данными, такими как набор данных удержания.

Вторая проблема заключается в том, что небольшой набор данных предоставляет меньше возможностей для описания структуры входного пространства и его отношения к выходным данным.Больше обучающих данных обеспечивает более подробное описание проблемы, из которой модель может извлечь уроки. Меньшее количество точек данных означает, что вместо гладкого входного пространства точки могут представлять прерывистую и разрозненную структуру, что может привести к трудной, если не недоступной для изучения, функции отображения.

Не всегда возможно получить дополнительные данные. Кроме того, получение большего количества данных может не решить эти проблемы.

Добавить случайный шум во время обучения

Одним из подходов к уменьшению ошибки обобщения и улучшению структуры задачи отображения является добавление случайного шума.

Во многих исследованиях […] отмечается, что добавление небольшого количества входного шума (джиттера) к обучающим данным часто способствует обобщению и отказоустойчивости.

— стр. 273, Нейронное моделирование: контролируемое обучение в искусственных нейронных сетях с прямой связью, 1999.

Поначалу это звучит как способ усложнить обучение. Это нелогичное предложение по улучшению производительности, поскольку можно было бы ожидать, что шум ухудшит производительность модели во время обучения.

Эвристически мы могли бы ожидать, что шум будет «размазывать» каждую точку данных и затруднит точное сопоставление отдельных точек данных сетью и, следовательно, уменьшит переоснащение. На практике было продемонстрировано, что обучение с шумом действительно может привести к улучшению обобщения сети.

— стр. 347, Нейронные сети для распознавания образов, 1995.

Добавление шума во время обучения модели нейронной сети оказывает эффект регуляризации и, в свою очередь, повышает надежность модели.Было показано, что добавление штрафного члена оказывает такое же влияние на функцию потерь, как и в случае методов регуляризации веса.

Хорошо известно, что добавление шума к входным данным нейронной сети во время обучения может при некоторых обстоятельствах привести к значительному улучшению производительности обобщения. Предыдущая работа показала, что такое обучение с шумом эквивалентно форме регуляризации, при которой к функции ошибок добавляется дополнительный член.

— Тренировка с шумом эквивалентна регуляризации по Тихонову, 2008.

По сути, добавление шума увеличивает размер обучающего набора данных. Каждый раз, когда обучающая выборка подвергается воздействию модели, к входным переменным добавляется случайный шум, что делает их разными каждый раз, когда она подвергается воздействию модели. Таким образом, добавление шума к входным образцам является простой формой увеличения данных.

Введение шума во входные данные нейронной сети также можно рассматривать как форму увеличения данных.

— Страница 241, Глубокое обучение, 2016.

Добавление шума означает, что сеть менее способна запоминать обучающие выборки, поскольку они постоянно меняются, что приводит к меньшим весам сети и более надежной сети с меньшей ошибкой обобщения.

Шум означает, что как будто новые выборки берутся из домена в непосредственной близости от известных выборок, сглаживая структуру входного пространства. Это сглаживание может означать, что сети легче обучаться функции отображения, что приводит к лучшему и более быстрому обучению.

… входной шум и весовой шум способствуют тому, чтобы выходные данные нейронной сети были гладкой функцией входных данных или их весов соответственно.

— Влияние добавления шума во время обучения обратному распространению на производительность обобщения, 1996.

Хотите лучших результатов с помощью глубокого обучения?

Пройдите мой бесплатный 7-дневный экспресс-курс по электронной почте прямо сейчас (с образцом кода).

Нажмите, чтобы зарегистрироваться, а также получить бесплатную электронную версию курса в формате PDF.

Загрузите БЕСПЛАТНЫЙ мини-курс

Как и где добавить шум

Наиболее распространенным типом шума, используемым во время обучения, является добавление гауссовского шума к входным переменным.

Гауссовский шум, или белый шум, имеет среднее значение, равное нулю, и стандартное отклонение, равное единице, и при необходимости может быть сгенерирован с помощью генератора псевдослучайных чисел. Добавление гауссовского шума к входным данным нейронной сети традиционно называлось « джиттер » или « случайный джиттер » после использования термина в обработке сигналов для обозначения некоррелированного случайного шума в электрических цепях.

Количество добавленного шума (например, разброс или стандартное отклонение) является настраиваемым гиперпараметром. Слишком мало шума не имеет никакого эффекта, тогда как слишком много шума делает функцию отображения слишком сложной для изучения.

Обычно это делается путем добавления случайного вектора к каждому входному шаблону перед его представлением в сеть, так что, если шаблоны повторно используются, каждый раз добавляется другой случайный вектор.

— Тренировка с шумом эквивалентна тихоновской регуляризации, 2008.

Стандартное отклонение случайного шума определяет величину разброса и может регулироваться в зависимости от масштаба каждой входной переменной. Настройка может быть проще, если масштаб входных переменных предварительно нормализован.

Шум добавляется только во время тренировки. Шум не добавляется во время оценки модели или когда модель используется для прогнозирования новых данных.

Добавление шума также является важной частью автоматического обучения признаков, например, в случае автоэнкодеров, так называемых шумоподавляющих автокодировщиков, которые явно требуют, чтобы модели изучали надежные признаки при наличии шума, добавляемого к входным данным.

Мы видели, что критерий реконструкции сам по себе не может гарантировать извлечение полезных признаков, поскольку он может привести к очевидному решению «просто скопировать ввод» или аналогичным неинтересным решениям, которые тривиально максимизируют взаимную информацию. […] мы меняем критерий реконструкции на более сложную и более интересную цель: очистка частично поврежденного ввода или, короче, шумоподавление.

— Автоэнкодеры с шумоподавлением: изучение полезных представлений в глубокой сети с локальным критерием шумоподавления, 2010 г.

Хотя добавление шума к входам является наиболее распространенным и широко изученным подходом, случайный шум может быть добавлен к другим частям сети во время обучения. Некоторые примеры включают:

  • Добавить шум к активациям , т.е. к выходам каждого слоя.
  • Добавить шум к весам , т.е. альтернатива входам.
  • Добавьте шум к градиентам , т.е. направление для обновления весов.
  • Добавить шум к выходам , т.е.е. метки или целевые переменные.

Добавление шума к активациям уровня позволяет использовать шум в любой точке сети. Это может быть полезно для очень глубоких сетей. Шум может быть добавлен к самим выходным данным слоя, но это, скорее всего, достигается за счет использования шумовой функции активации.

Добавление шума к весам позволяет последовательно использовать этот подход во всей сети вместо добавления шума к входам и активациям слоев.Это особенно полезно в рекуррентных нейронных сетях.

Еще один способ использования шума для регуляризации моделей — добавление его к весам. Этот метод использовался в основном в контексте рекуррентных нейронных сетей. […] Шум, примененный к весам, также можно интерпретировать как эквивалентный (при некоторых предположениях) более традиционной форме регуляризации, способствующей стабильности изучаемой функции.

— Страница 242, Глубокое обучение, 2016.

Добавление шума к градиентам больше направлено на повышение надежности самого процесса оптимизации, чем на структуру входной области. Уровень шума может начинаться с высокого уровня в начале обучения и уменьшаться со временем, подобно снижению скорости обучения. Этот подход оказался эффективным методом для очень глубоких сетей и для множества различных типов сетей.

Мы постоянно наблюдаем улучшение от введенного градиентного шума при оптимизации широкого спектра моделей, включая очень глубокие полносвязные сети и специализированные архитектуры для ответов на вопросы и изучения алгоритмов.[…] Наши эксперименты показывают, что добавление отожженного гауссова шума путем затухания дисперсии работает лучше, чем использование фиксированного гауссова шума

— Добавление градиентного шума улучшает обучение для очень глубоких сетей, 2015 г.

Добавление шума к активациям, весам или градиентам обеспечивает более общий подход к добавлению шума, который не зависит от типов входных переменных, предоставленных модели.

Если считается или ожидается, что в проблемной области есть неправильно маркированные примеры, то добавление шума к метке класса может повысить устойчивость модели к этому типу ошибок.Хотя процесс обучения может быть легко сорван.

Добавление шума к непрерывной целевой переменной в случае регрессии или прогнозирования временных рядов очень похоже на добавление шума к входным переменным и может быть лучшим вариантом использования.

Примеры добавления шума во время обучения

В этом разделе приведены некоторые примеры использования добавления шума во время обучения.

Лассе Холмстрем исследовал добавление случайного шума как аналитически, так и экспериментально с помощью MLP в статье 1992 года под названием «Использование аддитивного шума при обучении обратному распространению».«Они рекомендуют сначала стандартизировать входные переменные, а затем использовать перекрестную проверку, чтобы выбрать количество шума, которое будет использоваться во время обучения.

Если бы был предложен единый метод расчета шума общего назначения, мы бы выбрали максимизацию функции правдоподобия с перекрестной проверкой. Этот метод прост в реализации, полностью основан на данных и имеет достоверность, которая подтверждается теоретическими результатами согласованности

Клаус Греф и др. в своей статье 2016 года под названием «LSTM: Одиссея пространства поиска» использовали гиперпараметрический поиск стандартного отклонения для гауссовского шума по входным переменным для набора задач прогнозирования последовательности и обнаружили, что это почти всегда приводило к ухудшению производительности.

Аддитивный гауссовский шум на входах, традиционный регуляризатор для нейронных сетей, также использовался для LSTM. Однако мы обнаружили, что это не только почти всегда снижает производительность, но и немного увеличивает время обучения.

Алекс Грейвс и др. в своей новаторской статье 2013 года под названием «Распознавание речи с помощью глубоких рекуррентных нейронных сетей», которая достигла самых современных результатов для распознавания речи, добавила шум к весам LSTM во время обучения.

… весовой шум [использовался] (добавление гауссовского шума к весам сети во время обучения). Весовой шум добавлялся один раз за обучающую последовательность, а не на каждом временном шаге. Весовой шум имеет тенденцию «упрощать» нейронные сети в смысле уменьшения количества информации, необходимой для передачи параметров, что улучшает обобщение.

В предыдущей статье 2011 года, в которой исследуются различные типы статического и адаптивного весового шума под названием «Практический вариационный вывод для нейронных сетей», Грейвс рекомендует использовать раннюю остановку в сочетании с добавлением весового шума с помощью LSTM.

… на практике требуется ранняя остановка для предотвращения переобучения при тренировке с шумом от веса.

Советы по добавлению шума во время тренировки

В этом разделе приведены некоторые советы по добавлению шума во время обучения нейронной сети.

Типы задач для добавления шума

Шум может быть добавлен к обучению независимо от типа решаемой проблемы.

Целесообразно попробовать добавить шум как к задачам классификации, так и к задачам регрессионного типа.

Тип шума может быть адаптирован к типам данных, используемых в качестве входных данных для модели, например, двумерный шум в случае изображений и сигнальный шум в случае аудиоданных.

Добавление шума к разным типам сетей

Добавление шума во время обучения — это общий метод, который можно использовать независимо от типа используемой нейронной сети.

Этот метод использовался в основном с многослойными персептронами, учитывая их прежнее доминирование, но может использоваться и используется с сверточными и рекуррентными нейронными сетями.

Сначала измените масштаб данных

Важно, чтобы добавление шума постоянно влияло на модель.

Это требует, чтобы входные данные были перемасштабированы так, чтобы все переменные имели одинаковую шкалу, чтобы добавление шума к входным данным с фиксированной дисперсией имело одинаковый эффект. Это также относится к добавлению шума к весам и градиентам, поскольку на них также влияет масштаб входных данных.

Это может быть достигнуто путем стандартизации или нормализации входных переменных.

Если после масштабирования данных добавляется случайный шум, может потребоваться повторное масштабирование переменных, возможно, для каждого мини-пакета.

Проверить количество шума

Вы не можете знать, сколько шума принесет пользу вашей конкретной модели в наборе обучающих данных.

Поэкспериментируйте с разным количеством и даже разными типами шума, чтобы определить, что работает лучше всего.

Будьте систематизированы и используйте контролируемые эксперименты, возможно, на меньших наборах данных в диапазоне значений.

Только шумные тренировки

Шум добавляется только во время обучения вашей модели.

Убедитесь, что во время оценки вашей модели или когда ваша модель используется для прогнозирования новых данных, не добавляются никакие источники шума.

Дополнительное чтение

В этом разделе содержится больше ресурсов по теме, если вы хотите углубиться.

Книги

Бумаги

Артикул

Резюме

В этом посте вы обнаружили, что добавление шума в нейронную сеть во время обучения может повысить надежность сети, что приведет к лучшему обобщению и более быстрому обучению.

В частности, вы узнали:

  • Небольшие наборы данных могут усложнить обучение нейронным сетям, а примеры можно запомнить.
  • Добавление шума во время обучения может сделать процесс обучения более надежным и уменьшить ошибку обобщения.
  • Шум традиционно добавляется к входам, но также может быть добавлен к весам, градиентам и даже функциям активации.

Есть вопросы?
Задавайте свои вопросы в комментариях ниже, и я постараюсь ответить.

Разработайте лучшие модели глубокого обучения уже сегодня!

Тренируйтесь быстрее, сокращайте перетренированность и собирайте ансамбли

… всего несколькими строками кода Python

Узнайте, как в моей новой электронной книге:
Better Deep Learning

Он содержит учебных пособия для самостоятельного изучения по таким темам, как:
снижение веса , нормализация партии , отсев , укладка моделей и многое другое …

Улучшите глубокое обучение в своих проектах!

Пропустить учебу.Просто Результаты.

Посмотреть, что внутри

Greg, ML — Machine Learning for Healthcare in the Scale

Основная новинка платформы, которую мы предлагаем в этой статье, и ее главный вклад — это тот факт, что она была задумана для решения автоматических диагностических предложений в больших масштабах. Насколько нам известно, в литературе нет других предложений с такими характеристиками. Другие предложения на самом деле имеют гораздо более ограниченный охват и концентрируются на ограниченном числе, если не на одном, диагнозе.

DAIMO — это инструмент, специально разработанный для поддержки этапа маркировки проектов машинного обучения.

DAIMO — это полуавтоматический инструмент для маркировки данных. Это не первое средство подобного рода. Например, LabelMe Footnote 2 [27] — это бесплатный веб-инструмент, разработанный в Массачусетском технологическом институте и предназначенный исключительно для маркировки изображений. И LabelBox Footnote 3 , и Amazon Mechanical Turk Footnote 4 являются коммерческими платформами, которые можно использовать для этой цели. Однако DAIMO предоставляет набор уникальных функций, которые отличают его от этих инструментов.

Чтобы обсудить это, мы приводим снимок интерфейса DAIMO на рис. 3.

Рис. 3

DAIMO, инструмент для маркировки ML. (1) Данные исследования образцов; (2) маркировка образцов; (3) Совместный и канцелярский контроль; (4) Тезаурус; (5) Автоматические предложения меток

Исследование образцов

Для начала DAIMO предоставляет простой и эффективный интерфейс для изучения предопределенных коллекций образцов для маркировки. Как видно на рис.3(1), пользователи имеют в своем распоряжении богатый набор элементов управления для поиска, запроса и суммирования коллекции образцов. Это важнейшее требование для любой учебной задачи, включающей тысячи объектов.

Образец маркировки

Затем пользователи могут выбрать образец для маркировки, изучить его содержимое и существующие метки, а также добавить другие. На рис. 3(2) показан процесс маркировки одного текстового лабораторного отчета. Ярлыки, связанные с отчетом, находятся справа.Каждый соответствует цветной части текста. DAIMO позволяет пользователям добавлять метки как ко всему экземпляру, так и к его частям. Это представляет собой важное преимущество по сравнению, например, с LabelBox и Amazon Mechanical Turk, которые, насколько нам известно, поддерживают только первый протокол.

Совместная маркировка и канцелярская проверка

DAIMO предназначен для совместной маркировки группой экспертов. Он обеспечивает сложное управление блокировкой, разблокировкой, сохранением и просмотром этикеток.3(3). Он поддерживает как одношаговый, так и канцелярский процесс проверки. При одноэтапной маркировке пользователь выбирает образец, добавляет метки, которые сохраняются в базе данных и считаются окончательными. Этот протокол приемлем только для игрушечных приложений. В критически важных задачах необходим второй этап проверки, чтобы уменьшить количество ошибок. Используя этот протокол канцелярской проверки, пользователь 1 добавляет этикетки, а затем отправляет образец на проверку. Второй пользователь, отличный от первого, должен будет проверить ярлыки и либо одобрить, либо отклонить их.

Общий динамический тезаурус

Важным требованием при работе с группой разных экспертов является наличие согласованного словаря меток, общих для всех пользователей. В противном случае отчет о наличии у пациента увеличенного очага может быть помечен экспертом 1 как «кардиомегалия», а экспертом 2 как «увеличенная сердечная тень», что приведет к конфликту этих двух ярлыков друг с другом.

Вскоре мы узнали, что метки не всегда известны заранее.В больших приложениях для этикетирования их скорее нужно создавать в пути. DAIMO позволяет пользователям определять словарей меток , чтобы стандартизировать способ присвоения меток образцам. Пользователи обычно ищут ярлыки в словаре рис. 3(4) и добавляют новые только тогда, когда нужных им нет. По нашему опыту, эта функция оказалась решающей для получения качественных результатов при выполнении сложных задач по маркировке с использованием множества различных этикеток

Предложения по маркировке

Мы считаем, что даже наличие интуитивно понятного инструмента для поддержки совместной работы по этикетированию, как обсуждалось в предыдущих параграфах, значительно повышает производительность.Тем не менее, единственное наиболее важное новшество, сделанное DAIMO, — это, вероятно, процесс маркировки, основанный на предложениях. По сути, DAIMO включает в себя механизм, способный изучить стратегий маркировки на примерах. После некоторого начального обучения он не только собирает новые метки от пользователей, но и фактически предлагает их, так что пользователям нужно только принять или отклонить предложения DAIMO.

Мы изобразили процесс маркировки экземпляров с помощью DAIMO на рис. 4.

Рис.4

Маркировка на основе предложений с помощью DAIMO. Спираль указывает время для создания модели машинного обучения. Кружки показывают среднее время, необходимое для маркировки экземпляра. Чем меньше диаметр, тем меньше среднее время маркировки. Цвет кружка указывает на шкале точность модели. Белый — нет точности, так как нет модели, красный — высокая точность

Пользователи запускают новый проект маркировки — в нашем примере маркировку отчетов RX для выявления аортосклероза — путем добавления меток к первой группе образцов.После того, как несколько десятков образцов были промаркированы, DAIMO предлагает варианты. По сути, как показано на рис. 3(5), при блокировке новых экземпляров для маркировки пользователи находят набор предлагаемых меток, которые они могут принять или отклонить. На этом начальном этапе DAIMO использует тривиальную стратегию текстового поиска для предоставления предложений. Поэтому они относительно низкого качества. Чтобы увидеть это, предположим, что пользователи ввели ярлык «аортосклероз». Все образцы, содержащие именно это слово, получат метку в качестве предложения, независимо от контекста.Это приведет к ошибочным предположениям, например, «RX не показывает признаков аортосклероза». Тем не менее, во многих случаях время, необходимое для обработки нового образца, меньше времени, которое потребовалось бы для добавления каждой отдельной этикетки с нуля.

Как только количество помеченных образцов увеличивается, DAIMO начинает разрабатывать для них модели прогнозирования. После того, как метка была присвоена 100 раз, разрабатывается первая модель с использованием наивного байесовского классификатора. Это улучшает качество предложений, которые отныне основаны не только на текстовых вхождениях, но и на фактическом обучении.

DAIMO поддерживает пользовательских классификаторов , т. е. классификаторов, сгенерированных специалистами по обработке данных, и сгенерированных классификаторов , т. е. автоматически сгенерированных им самим. Для сгенерированных классификаторов все помеченные экземпляры могут использоваться для создания набора данных. Этот набор данных автоматически разделяется на наборы для обучения, перекрестной проверки и тестирования. DAIMO использует перекрестную проверку для автоматической настройки гиперпараметров с использованием подхода поиска по сетке и использует набор тестов для расчета оценки каждой сгенерированной модели.Для создания модели обучения используются разные стратегии, которые существенно зависят от размера обучающих данных: I ) когда набор данных небольшой, функции могут быть автоматически выбраны с использованием частот слов, а затем с использованием одного горячего -методы кодирования обучающих данных подаются в наивный байесовский классификатор; I I ), когда набор данных имеет средний размер, подход аналогичен предыдущему, но DAIMO также пытается использовать логистическую регрессию и проверяет, есть ли улучшение по сравнению с Наивным Байесом, в противном случае он продолжит использовать Наивный Байес; I I I ) с большим набором данных можно использовать нейронные сети и полностью игнорировать выбор функций, поскольку он выполняется сетью, снова проверяя результаты относительно.Наивный Байес и логистическая регрессия.

Как видно на рис. 4, генерация прогностических моделей повторяется, как только увеличивается частота меток. При большем количестве выборок DAIMO использует набор моделей, включающий логистическую регрессию, а для большого количества выборок — нейронные модели. С совершенствованием моделей повышается точность подсказок пользователям, так что через некоторое время пользователям просто необходимо принять предлагаемые системой метки.

Этот подход действительно меняет процесс маркировки изнутри, поскольку через некоторое время большую часть работы выполняет DAIMO, а не пользователь. На самом деле, по нашему опыту, работа с DAIMO может сократить время маркировки текста до одного порядка по сравнению с ручной маркировкой без посторонней помощи, как обсуждалось в нашем экспериментальном разделе. Это важный строительный блок видения Грега, ML, поскольку это единственный способ увеличить количество диагнозов, обрабатываемых системой.

Сравнение двух программ для моделирования процесса получения наночастиц

Перекрестная проверка (CV)

Наборы ввода-вывода могут быть переданы в ИНС

различными способами. В случае перекрестной проверки заданный набор

исключается из обучающих данных

и используется для проверки сети, т. е. для проверки ее

обобщающей способности во время обучения, как это показано на

рис. 9( а). Различия между выходом сети

и целевыми значениями набора данных проверки

отслеживаются, и обучение останавливается, когда эти

различия достигают минимума.В этом исследовании данные

, представляющие значения MPSA, были разделены на

данные обучения, перекрестной проверки и тестирования. Значительное улучшение прогнозирующей способности после перекрестной проверки наблюдалось для всех моделей, за исключением

CANFIS и рекуррентных сетей, которые показывают лишь небольшую разницу между двумя значениями, как видно из

.

Рис. 9(б).

Известно, что этот метод обладает высокой эффективностью, и

он считается основой метода «исключение одного»

(Sun et al., 2003). Во время этого процесса ИНС

обучается на всех выборках в наборе данных, кроме одной,

, а затем проверяется на выборке, которая была исключена из набора данных

во время обучения. Этот метод

позволяет использовать весь набор данных, в то же время предоставляя

то же время для эффективной проверки при обучении.

ЗАКЛЮЧЕНИЕ

Искусственные нейронные сети предложили успешный инструмент

для анализа и моделирования препаратов наночастиц.

Генетический алгоритм представляет собой быстрый и надежный

метод определения относительной важности

входных данных. Предсказания ИНС были ближе к

экспериментальным значениям, чем прогнозы, полученные с помощью полиномиального регрессионного анализа.

Результаты, полученные с помощью NeuroSolutions

1

подтвердили

, что более выгодно использовать

гибкую программу, а не «черный ящик», так как это позволит

свободно выбирать различные сети параметры

соответствующим образом для каждой проблемы.Кроме того, оказалось, что предварительная обработка

обучающих данных играет важную

роль в моделировании приложений с помощью нейронных вычислений.

ССЫЛКИ

Achanta, A.S., Kowalski, J.G., & Rhodes, C.T. (1995). Искусственные нейронные сети

: значение для фармацевтических наук. Разработка лекарственных средств

opment and Industrial Pharmacy, 21, 119–155.

Agatonovic-Kustrin, S., & Alany, R.G. (2001). Роль генетических алгоритмов

и искусственных нейронных сетей в прогнозировании фазового поведения коллоидных систем доставки

.Pharmaceutical Research, 18, 1049 –

1055.

Agatonovic-Kustrin, S., & Beresford, R. (2000). Основные понятия моделирования искусственной

нейронной сети (ИНС) и ее применение в фармацевтических исследованиях. Journal of Pharmaceutical and Biomedical

Analysis, 22, 717–727.

Буркин, Дж., Шмидли, Х., ван Хугевест, П., и Лойенбергер, Х. (1997).

Основные понятия моделирования искусственных нейронных сетей (ИНС) в приложении

к фармацевтической разработке.Фармацевтика

Разработка и технология, 2, 95–109.

Буркин, Дж., Шмидли, Х., Ван Хугевест, П., и Лойенбергер, Х. (1998).

Сравнение искусственных нейронных сетей (ИНС) с классическими методами моделирования

с использованием различных экспериментальных планов и

данных галенового исследования твердой лекарственной формы. European

Journal of Pharmaceutical Sciences, 6, 287–300.

Carpenter, WC, & Hoffman, ME (1995).Понимание нейронных

аппроксимаций сети и полиномиальных аппроксимаций помогает

производительности нейронной сети. AI Expert, 10, 31–33.

Чорный М., Фишбейн И., Даненберг Х.Д. и Голомб Г. (2002).

Липофильные наносферы, наполненные лекарственным средством, полученные путем нанопреципитации

: влияние переменных состава на размер, извлечение лекарственного средства и

кинетику высвобождения. Журнал контролируемого выпуска, 83, 389–400.

Дас, С.К., Такер, И.Г., & Ganguly, N. (1995). Оценка

поли(изобутилцианоакрилатных) наночастиц для мукоадгезивной доставки лекарств в глаза

. I. Влияние переменных состава на физико-химические

характеристики наночастиц. Pharmaceutical Research, 12,

534–540.

Фан Т., Такаяма К., Хаттори Ю. и Майтани Ю. (2004). Состав

оптимизация паклитаксела, переносимая пегилированными эмульсиями на основе

на искусственной нейронной сети.Pharmaceutical Research, 21, 1692 –

1697.

Хайкин, С. (1999). Комплексный фонд нейронных сетей (2-е изд.

). Река Аппер-Сэдл, Нью-Джерси: Prentice-Hall, Inc..

Хуссейн, А.С., Сюаньцжан, Ю., и Джонсон, Р.Д. (1991). Применение нейронных вычислений

в разработке фармацевтических продуктов.

Pharmaceutical Research, 8, 1248–1252.

Ибрик

´

, С., Йованович

´

, М., Djuric

´

, Z., Parojcic

´

, J., & Solomun, L. (2002). Применение обобщенной регрессионной нейронной сети

в моделировании

и оптимизации таблеток аспирина пролонгированного действия

с Eudragit RS PO в качестве матричного вещества. Журнал контролируемых выпусков

, 82, 213 – 222.

Джамшиди, М. (2003). Инструменты интеллектуального управления: нечеткие регуляторы, нейронные сети

и генетические алгоритмы.Philosophical Transactions of

the Royal Society of London, A, 361, 1781 – 1808.

Lamprecht, A., Ubrich, N., Hombreiro Pe´rez, M., Lehr, C.-M., Hoffman,

М. и Майнсент П. (2000). Влияние параметров процесса на

приготовление наночастиц, выполненное методом двойной эмульсии

гомогенизации под давлением. International Journal of

Pharmaceutics, 196, 177–182.

Lescure, F., Zimmer, C., Roy, R., & Couvreur, P.(1992). Оптимизация наночастиц поли(алкилцианоакрилата)

: влияние диоксида серы

и рН на характеристики наночастиц. Journal of Colloid and

Interface Science, 154, 77–86.

Mainardes, RM, & Evangelista, RC (2005). Наночастицы PLGA

, содержащие празиквантел: влияние переменных состава. International

Journal of Pharmaceutics, 290, 137–144.

McCarron, P.A., Woolfson, A.D.и Китинг, С. М. (1999). Response

поверхностная методология в качестве прогностического инструмента для определения

влияния условий приготовления на физико-химические свойства наночастиц поли(изобутилцианоакрилата). International

Journal of Pharmaceutics, 193, 37–47.

Peh, KK, Lim, CP, Queck, S.S., & Khoh, KH (2000). Использование искусственных

нейронных сетей для прогнозирования профилей растворения лекарственных средств и оценка эффективности работы сети с использованием коэффициента сходства.Фармацевтические исследования

, 17, 1384–1388.

Квантахром (2003 г.). Руководство по эксплуатации Автосорб-1, Версия 1.27.

Quantachrome Instruments, Бойситон-Бич, Флорида, США.

N. Rizkalla и P. Hildgen 1032

Прогнозирование инфекции зубов и усталости с использованием оптимизированных нейронных сетей и инструмента анализа больших данных

Abstract

Несмотря на быстрое улучшение состояния зубов за последние несколько десятилетий, значительная часть нашего населения продолжать обращаться за стоматологической помощью каждый год.Оценки показывают, что 13% взрослых обращаются за стоматологической помощью по поводу зубной инфекции или усталости в течение четырех лет. Социальное и индивидуальное бремя этого заболевания можно уменьшить путем его раннего выявления. Однако симптомы инфекции зубов на ранних стадиях неясны, поэтому было бы относительно сложно предсказать инфекции зубов, основываясь исключительно на человеческих навыках и опыте. Технологии больших данных (BD) обладают большим потенциалом в преобразовании стоматологической помощи, поскольку они произвели революцию в других отраслях.Помимо снижения затрат, они могут спасти миллионы жизней и улучшить результаты лечения пациентов. В этой статье предлагается новая интегрированная модель прогнозирования, которая извлекает скрытые знания из наборов рентгенографических данных, содержащих большой объем рентгеновских изображений зубов, и использует эти знания для прогнозирования стоматологических инфекций. Первоначально применяются методы предварительной обработки с использованием морфологического скелета и среднего подхода для устранения шума и улучшения изображений. Далее следует подход многомасштабной сегментированной области (MSR), подход водораздела (WA), обнаружение границ Собеля (SD), сегментация на основе гистограммы (HS), обучаемая сегментация (TS), двойная кластеризация (DC) и кластеризация нечетких C-средних ( FCM) проверяются на предмет сегментации изображения и выделения признаков.Среди этих методов MSR был выбран для извлечения признаков, поскольку он превосходил другие методы с точки зрения точности, специфичности, прецизионности, отзыва и оценки F1. Затем набор классификаторов нейронных сетей обучается выявлять закономерности в извлеченных оптимизированных функциях и прогнозировать стоматологические инфекции. Для этой цели мы рассмотрели бактериальные оптимизированные рекуррентные нейронные сети (BORNN), нейронные сети глубокого обучения (DANN), генетически оптимизированные нейронные сети (GONN) и алгоритм адаптивных нейронных сетей (ADNN).BORNN показал максимальную точность и значение Roc (98,1% и 0,92 соответственно) и минимальные значения ошибки (MSE = 0,189, MAE = 0,143). Выходные данные предложенной интегрированной модели прогнозирования передаются в стоматологический робот, который выполняет процесс лечения с высокой точностью и минимальной задержкой. Предложенная модель прогнозирования была реализована с использованием инструмента аналитики больших данных под названием Apache SAMOA, и экспериментальные результаты показали ее правильность и эффективность.

без названия

%PDF-1.4 % 1 0 объект > эндообъект 7 0 объект /Заголовок /Тема /Автор /Режиссер /Ключевые слова /CreationDate (D:20220227022830-00’00’) /ModDate (D:20140203114224-08’00’) /Application («Сертифицировано IEEE PDFeXpress 03.02.2014, 11:42:24») >> эндообъект 2 0 объект > эндообъект 3 0 объект > эндообъект 4 0 объект > эндообъект 5 0 объект > эндообъект 6 0 объект > поток 2014-02-03T11:42:24-08:002014-02-03T11:42:17-08:00’Сертифицировано IEEE PDFeXpress 03.02.2014, 11:42:24’2014-02-03T11:42 :24-08:00application/pdf

  • без названия
  • Акробат Дистиллер 8.1.0 (Windows)uuid:135681e9-a0e4-4614-b987-74e35dc28922uuid:d7faab70-5f76-4a8f-8fe2-f43f01231f8e’Сертифицировано IEEE PDFeXpress 03.02.2014, 11:42:24′ конечный поток эндообъект 8 0 объект > эндообъект 9 0 объект > эндообъект 10 0 объект > эндообъект 11 0 объект > эндообъект 12 0 объект > эндообъект 13 0 объект > эндообъект 14 0 объект > /ProcSet [/PDF /Text /ImageC /ImageB /ImageI] >> эндообъект 15 0 объект > поток xڝXɎ#7+\#Q>Y[q.~]~|yǒkJFZ%U}»-mjlE,N.:[email protected]#Gr(A +GwI G wkuKS\G»tjA.;y7nw7$/c)4XSl$5.X7!XSaN\y} 7 C&{ ;]2ХЕ!

    Иродалом | Mesterséges Intelligencia Elektronikus Almanach

    [Aar89] Аарт, Э. — Корст, Дж. «Моделирование отжига и машины Больцмана», Джон Вили, Нью-Йорк, 1989.

    [Abu90] Абу-Мостафа, Ю. S. «Обучение на основе подсказок в нейронных сетях», Journal of Complexity , Vol. 6. С. 192-198, 1990.

    [Abu95] Ясер С. Абу-Мостафа, «Подсказки» Нейронные вычисления , Vol.7. С. 639-671, 1995.

    [Aga01] Агарвал, Р. П. – Михан, М. – О’Реган, Д. «Теория фиксированной точки и приложения», Cambridge University Press, 2001.

    [Aka69] Акаике, Х. «Подбор авторегрессионных моделей для прогнозирования», Ann. Инс. Стат. Мат. Том. 21. С. 243-347.

    [Aka74] Акаике, Х. «Новый взгляд на идентификацию статистической модели», IEEE Trans. на АКПП , АС-19. № 6. С. 716-723. 1974.

    [Alb75] Альбус, Дж.S. «Новый подход к управлению манипулятором: контроллер артикуляции модели мозжечка (CMAC)», , транзакция ASME , сентябрь 1975 г., стр. 220–227.

    [Ama95] Amari, S. — Cichocki, A. — Yang, HH «Рекуррентные сети для слепого разделения источников», Proc. Международного симпозиума по нелинейной теории и ее приложениям, NOLTA-95 , Лас-Вегас, США, стр. 37-42. 1995.

    [Ama97] Amari, S. — Chen, T. — Cichocki, A. «Анализ устойчивости алгоритмов обучения для слепого разделения источников», Neural Networks , Vol.10. № 8. С. 1345-1351. 1997.

    [Ama99] Амари, С.-Ву, С. «Улучшение классификаторов опорных векторов путем изменения функций ядра», Neural Networks , Vol. 12. С. 783-789. 1999.

    [Bab89] Баба, Н. «Новый подход к поиску глобального минимума функции ошибок нейронных сетей», Neural Networks, Vol. 2. С. 367-373. 1989.

    [Bac91] Бэк, А. Д. — Цой, А. С. «Синапсы FIR и IIR, новая архитектура нейронной сети для моделирования временных рядов», Neural Computation, Vol.3. С. 375-385. 1991.

    [Bal89] Baldi, P. — Hornik, K. «Нейронные сети и анализ главных компонентов: обучение на примерах без локальных минимумов», Neural Networks , Vol. 2. № 1. С. 53-58. 1989.

    [Bal00] Балестрино, А. — Каити, А. «Аппроксимация динамических моделей Хаммерштейна/Винера», Международная совместная конференция IEEE по нейронным сетям IJCNN’00, Vol. 1, стр. 1070-1074., 2000.

    [Bar93] Бэррон, А. Р. «Границы универсального приближения для суперпозиции сигмоидальных функций», IEEE Trans.по теории информации , Vol. 39. № 3. С. 930-945. 1993.

    [Bat92] Баттити, Р. «Методы обучения первого и второго порядка: между наикрутейшим спуском и методом Ньютона», Neural Computation , Vol. 4. С. 141 166. 1992.

    .

    [Bau89] Баум, Э. Б. — Хаусслер, Д. «Сеть какого размера дает достоверное обобщение?», Нейронные вычисления , Vol. 1. № 1. С. 151-160. 1989.

    [Bau01] Baudat G. — Anouar, F. «Методы на основе ядра и аппроксимация функций». Международная объединенная конференция по нейронным сетям, стр. 1244–1249, Вашингтон, округ Колумбия, 2001.

    [Bea94] Beaufays, F. — Wan, E. «Связь обратного распространения в реальном времени и обратного распространения во времени: применение взаимообмена графа потока», Neural Computation , Vol. 6. С. 296-306. 1994.

    [Bek93] Bekey, G. — Goldberg, K.Y. «Neural Networks in Robotics», Kluwer Academic Publisher, Boston 1993.

    [Бел95] Белл А. — Сейновский Т.«Слепое разделение и слепая деконволюция: информационный / теоретический подход», Proc. Международной конференции IEEE по акустике, речи и обработке сигналов 1995 г. , Детройт, США, стр. 3415-3418. 1995.

    [Ber01] Berényi, P. — Horvath, G. — Pataki, B. – Strausz, Gy. «Гибридно-нейронное моделирование сложного производственного процесса» Proc. конференции IEEE по приборостроению и измерительным технологиям, IMTC’2001. Будапешт, Vol. III. стр. 1424-1429.2001.

    [Bis95] Бишоп, CM: «Нейронные сети для распознавания образов», Clarendon Press, Оксфорд, 1995.

    [Bis06] Бишоп, К. М.: «Распознавание образов и машинное обучение», Springer, 2006.

    [Bos92] Бозер, Б. — Гийон, И. — Вапник, В. «Алгоритм обучения для оптимального классификатора маржи» Proc. 5-го ежегодного семинара ACM th по вычислительной теории обучения, , стр. 144-152. 1992.

    [Bos97] Босли, К. М.«Подходы к нейронечеткому моделированию в системной идентификации», , докторская диссертация , Саутгемптонский университет, 1997.

    [Bou95] Boutayeb, M., — Darouach, M. «Метод рекурсивной идентификации для модели MISO Wiener-Hammerstein», Automatica, Vol. 40. № 2. С. 287-291. 1995.

    [Boy04] Boyd, S. — Vandenberghe, L. «Выпуклая оптимизация», Cambridge University Press, 2004.

    [Bre84] Брейман, Л. — Фридман, Дж. Х. — Олшен, Р. А. — Стоун, К.J. «Деревья классификации и регрессии», Технический отчет , Wadsworth International, Монтерей, Калифорния. 1984.

    [Bre96] Брейман, Л. «Предсказатели упаковки», Машинное обучение , Vol. 24. № 2, с. 123-140, 1996.

    [Bro93] Браун, М. — Харрис, С. Дж. — Паркс, П. «Возможности интерполяции бинарного CMAC», Neural Networks, Vol. 6. № 3. С. 429-440. 1993.

    [Bro94] Браун, М. — Харрис, К. «Нейрофаззи-адаптивное моделирование и управление», Прентис-Холл, Нью-Йорк, 1994.

    [Bru90] Bruck, J. «О свойствах сходимости модели Хопфилда», Proceedings of the IEEE , Vol. 78. № 10. С. 1579 1585. 1990.

    .

    [Bry69] Брайсон, А.Е. и Хо, Ю.К. «Прикладное оптимальное управление», Блейсделл, Нью-Йорк, 1969.

    [Car89] Кэрролл, С. М. — Дикинсон, Б. В. «Построение нейронных сетей с использованием преобразования Радона» Proc. Междунар. Конференция по нейронным сетям, Vol. I, стр. 607-611. Нью-Йорк, 1989.

    [Car94] Кардосо, Дж.Ф. — Лахельд, Б. «Эквивариантное адаптивное разделение источников», IEEE Trans. по обработке сигналов, 1994.

    [Caw02] Cawley, G.C. — Talbot, N.L.C. «Регрессия ядра с пониженным рангом» Neural Processing Letters, Vol. 16. № 3. С. 293-302, 2002.

    [Cha87] Чан, Л. В. — Фоллсайд, Ф. «Адаптивный алгоритм обучения для сетей обратного распространения», Computer Speech and Language, Vol. 2. С. 205-218. 1987.

    [Cha02] Шапель, О.- Вапник, В. — Буске, И. — Мукерджи, С. «Выбор нескольких параметров для машин опорных векторов», Machine Learning, Vol. 46. ​​№ 1. С. 131-159. 2002.

    [Cha06] Chapelle, O. – Schölkopf, B. – Zien, A. «Semi-supervised Learning», The MIT Press, Cambridge, MA. 2006.

    [Che89] Chen, S. — Billings, S.A. — Luo, W. «Методы ортогональных наименьших квадратов и их применение для идентификации нелинейных систем», International Journal of Control, Vol.50. С. 1873-1896, 1989.

    [Che91] Чен, С. — Коуэн, К. — Грант, П. «Алгоритм обучения ортогональным методом наименьших квадратов для радиальных функциональных сетей», IEEE Trans. по нейронным сетям, Vol. 2. С. 302-309, 1991.

    .

    [Che04] Чен, Б., Чанг, М., Лин, К., «Прогнозирование нагрузки с использованием машин опорных векторов: исследование конкурса EUNITE 2001», IEEE Transactions on Power Systems , Vol. 19, № 4, стр. 1821-1830. 2004.

    [Cho97] Чо, С.- Чо, Ю. — Ю, С. «Надежное прогнозирование усилия прокатки в стане холодной прокатки с использованием нескольких нейронных сетей», IEEE Trans. по нейронным сетям, Vol. 8. № 4. С. 874-882. 1997.

    [Cho98] Choi, S. — Cichocki, A. — Amari, S. «Гибкий анализ независимых компонентов», Proc. семинара IEEE по нейронным сетям для обработки сигналов, Кембридж, Англия, 31 августа — 3 сентября 1998 г.

    [Cic93] Cichocki, A. — Unbehaunen, R. «Нейронные сети для оптимизации и обработки сигналов», John Wiley & Sons, Нью-Йорк, 1993.

    [Ciz04] Чижек, П., «Асимптотика регрессии методом наименьших квадратов», Дискуссионный документ 72 , Тилбургский университет, Центр экономических исследований. 2004.

    [Com94] Comon, P. «Анализ независимых компонентов, новая концепция?», Signal Processing , Vol. 36. № 2. С. 287-314. 1994.

    [Cov65] Обложка, Т. М. «Геометрические и статистические свойства систем линейных неравенств с применением в распознавании образов», IEEE Trans.по электронным вычислительным машинам , EC-14. стр. 326-334. 1965.

    [Cra96] Craven, M.W. «Извлечение понятных моделей из обученных нейронных сетей» Ph.D. диссертация , Университет Висконсина, Мэдисон, США, 1996.

    [Cri99] Кристианини, Н. — Кэмпбелл, К. — Шоу-Тейлор, Дж. «Динамическая адаптация ядер в машинах опорных векторов» в: Кернс М., Солла С., Кон Д., (ред.) Достижения в Системы обработки нейронной информации (NIPS) Vol. 11, Массачусетский технологический институт.1999,

    [Cri00] Кристианини, Н. — Шоу-Тейлор Дж. «Машины опорных векторов и другие методы обучения на основе ядра», Cambridge University Press, 2000.

    [Cyb89] Цыбенко Г. «Аппроксимация суперпозицией сигмоидальной функции», Математические системы управляющих сигналов , Vol. 2. С. 303-314, 1989.

    [DeC02] DeCoste, D. — Schölkopf, B. «Обучение машин с инвариантными опорными векторами» Machine Learning, Vol. 46. ​​С. 161-190.2002.

    [Dei86] Дайстлер, М. «Модели линейных динамических ошибок в переменных», Journal of Applied Probability , Vol. 23. С. 23-39. 1986.

    [Dem77] Демпстер, А. П. — Лэрд, Н. М. — Рубин, Д. Б. «Максимальное правдоподобие из неполных данных с помощью алгоритма EM (с обсуждением)», Journal of the Royal Statistical Society (Series B) , Vol. 39. № 1. С. 1-38, 1977.

    [Dia96] Диамантарас, К. И. — Кунг, С. Ю. «Теория нейронных сетей с основными компонентами и приложения», John Wiley and Sons, Нью-Йорк.1996.

    [Dre05] Дрейфус Г. «Нейронные сети. Методология и приложения», Springer, 2005.

    [Dru93] Друкер, Х. — Шапире, Р. Э. — Симард, П. «Повышение производительности в нейронных сетях», Международный журнал распознавания образов и искусственного интеллекта, Том. 7. № 4. С. 705-719. 1993.

    [Dru99] Дракнер, Х., Ву, Д., Вапник, В., «Машины опорных векторов для категоризации спама», IEEE Transactions on Neural Networks, Vol.10, № 5, стр. 1048-1054. 1999.

    [Dun93a] Дунай, Р. — Хорват, Г. «Модифицированные архитектуры нейронных сетей CMAC для моделирования нелинейных динамических систем», Труды Международной конференции по искусственным нейронным сетям (ICANN 93) , Амстердам, Голландия, с. 473. 1993.

    [Dun93b] Дунай, Р. — Патаки, Б. — Хорват, Г. «Некоторые дополнительные возможности применения нейронных сетей для моделирования нелинейных динамических систем», Труды Первого Европейского конгресса по нечетким и интеллектуальным технологиям, EUFIT 93 , Ахен, Германия, Vol.2. С.930-936. 1993.

    [Egm02] Эгмонт-Петерсен М. — де Риддер Д. — Гендельс Х. «Обработка изображений с помощью нейронной сети — обзор», Распознавание образов , Vol. 35, № 10, с. 2279-2301, 2002,

    [Eld97] Eldracher, M. — Staller, A. — Pompl, R. «Адаптивное кодирование значительно улучшает аппроксимацию функций с помощью CMAC», Neural Computation , Vol. 9. С. 403-417. 1997.

    [Ell91] Эллисон, Д.: «О сходимости многомерного персептрона Альбуса», The International Journal of Robotics Research , Vol.10. № 4. С. 338-357. 1991.

    [Far90] Фаррелл, Дж. А. — Мишель, А. Н. «Процедура синтеза ассоциативной памяти Хопфилда с непрерывным временем», IEEE Trans. по цепям и системам, Vol. 37. №7. стр. 877 884. 1990.

    .

    [Fle88] Флетчер, Р. «Практические методы оптимизации», Джон Вили, 1988.

    [Föl89] Földiák, P. «Адаптивная сеть для оптимального извлечения линейных признаков» Proc. 1989 Intnt. Совместная конференция по нейронным сетям , Vol.1. С. 401-405. 1989.

    [Fre95] Фройнд, Ю. «Усиление слабого алгоритма обучения с помощью большинства» Информация и вычисления , Vol. 121. № 2. С. 256-285, 1995.

    [Fre97] Freund Y. — Schapire, RE. «Теоретическое обобщение онлайн-обучения и его применение для повышения квалификации», Journal of Computer and System Sciences, Vol. 55. № 1. С. 119-139, 1997.

    [Fuk88] Фукусима, К. «Неокогнитрон: иерархическая нейронная сеть, способная распознавать образы», ​​ Neural Networks, Vol.1. № 2. С. 119-130. 1988.

    [Fun89] Фунахаси, К.И. «О приближенной реализации непрерывных отображений с помощью нейронных сетей», Neural Networks, Vol. 2. № 3. С. 183-192. 1989.

    [Fun03] Фунг, Г. — Мангасарян, О.Л. — Шавлик, Дж. В. «Классификаторы машин опорных векторов баз знаний» В: С. Беккер, С. Трун, К. Обермайер (ред.) Достижения в системах обработки нейронной информации , Том. 15, стр. 521-528. MIT Press, Кембридж, Массачусетс.США. 2003.

    [Gal89] Галар, Р. «Эволюционный поиск с мягким отбором», Биологическая кибернетика , Vol. 60. С. 357-364. 1989.

    [Gir96] Джиролами, М. — Файф, К. «Максимизация кумулянта высшего порядка с использованием нелинейного хеббовского и антихеббовского обучения для адаптивного слепого разделения исходных сигналов», Proc. Международного семинара IEEE/IEE по обработке сигналов и изображений, IWSIP-96 , Достижения в области вычислительного интеллекта, издательство Elsevier, стр.141 — 144, 1996.

    [Gol89a] Голдберг, Д.Э. «Генетические алгоритмы поиска, оптимизации и машинного обучения», Addison-Wesley, 1989.

    [Gol89b] Golub H. — Van Loan, CF «Matrix Computations», Third Edition, Gene Johns Hopkins University Press, Baltimore and London, 1996.

    [Gol96] Голден, Р. М. «Математические методы анализа и проектирования нейронных сетей», MIT Press, Кембридж, Массачусетс. 1996.

    [Gon98] Гонсалес-Серрано, Ф. — Фигейрас-Видаль, А.R. — Artés-Rodrigez, A. «Обобщение архитектуры и обучения CMAC», IEEE Trans. по нейронным сетям, Vol. 9. С. 1509-1514, 1998.

    .

    [Goo95] Goonatilake, S. — Khebbal, S. (редакторы) «Intelligent Hybrid Systems», John Wiley and Sons, London, 1995.

    [Gra03] Гранас, А. — Дугунджи, Дж. «Теория фиксированной точки», Springer-Verlag, Нью-Йорк, 2003.

    [Gre87] Грефенштетт, Дж. «Бытие 4.5». Программное обеспечение GA от [email protected] 1987.

    [Gup03] Гупта, М. М. — Джин, Л. — Хомма, Н. «Статические и динамические нейронные сети: от основ к продвинутой теории», Wiley-IEEE Press, 2003.

    [Guy96] Гийон, И. «Закон масштабирования для отношения тренировочного набора валидации», Технический отчет , AT&T Bell Laboratories. 1996.

    [Had1902] Адамар, Дж. «Sur les problèmes aux dérivées partielles et leur signification physique», Бюллетень Принстонского университета, 49–52. 1902 г.

    [Ham90] Hambaba, ML «Нелинейный главный компонент с использованием нейронных сетей с прямой связью», Proc. Совместной конференции по нейронным сетям, , 1990. стр. 3246-3248.

    [Han89] Хан, Дж. Ю. — Сайех, М. Р. — Чжан, Дж. «Точки сходимости и предельные точки нейронной сети и ее применение для распознавания образов», IEEE Trans. по системам, человеку и кибернетике, Vol. 19. № 5. 1989. С. 1217 1222,

    .

    [Hao04] Хао, X. – Чжэн, П.– Се. ж. – Ду, Г. — Шен, Ф. «Прогнозное моделирование для доменной печи путем интеграции нейронной сети с частичной регрессией наименьших квадратов , Proc. Международной конференции IEEE по промышленным технологиям CIT ’04. Том. 3. С. 1162-1167. 2004.

    .

    [Har93] Харрер, Х. — Галиас, З. — Носсек, Дж. А. «О сходимости нейронных сетей с дискретным временем», Международный журнал теории цепей и приложений. Том. 21. 1993. С. 191 195.

    .

    [Has92] Хассиби, Б.- Сторк, Д.Г. «Производные второго порядка для сокращения сети: оптимальный мозговой хирург», в: Джайлз, К.Л., Хэнсон, С.Дж., Коуэн, Дж.Д. (редакторы) Достижения в системах обработки нейронной информации, Vol. 5. Сан-Матео, Калифорния. Морган Кауфман, стр. 164-171. 1993.

    [Has95] Hassoun, MH: «Основы искусственных нейронных сетей», MIT Press, Кембридж, Массачусетс. 1995.

    [Has97] Хашем С. «Оптимальные линейные комбинации нейронных сетей», Neural Networks , Vol.10. № 4. С. 599-614. 1997.

    [Has09] Хасти, Т. — Тибширани, Р. — Фридман, Дж. «Элементы статистического обучения. Интеллектуальный анализ данных, вывод и прогнозирование», Springer, 2009.

    [Hay99] Хайкин С. «Нейронные сети. Комплексная основа», второе издание, Prentice Hall, 1999.

    [He93] He, X. — Asada, H. «Новый метод определения порядка моделей ввода-вывода для нелинейных динамических систем», Proc. Американской контрольной конференции , Сан-Франциско, Калифорния.США. стр. 2520-2523. 1993.

    [Hea02] Heath, MT «Научные вычисления, вводный обзор», McGraw-Hill, Нью-Йорк. 2002.

    [Heb49] Хебб, Д. О. «Организация поведения», John Wiley and Sons, Нью-Йорк, 1949.

    [Hec87] Hecht-Nielsen, R. «Теорема существования картографической нейронной сети Колмогорова» Proc. Междунар. Конференция по нейронным сетям , Vol. III. стр. 11-13. IEEE Press, Нью-Йорк, 1987.

    .

    [Hec89] Хехт-Нильсен, Р.«Нейрокомпьютинг», Addison-Wesley Publishing Co., 1989.

    .

    [Her91] Герц, Дж. — Крог, А. — Палмер, Р. Г. «Введение в теорию нейронных вычислений», Addison-Wesley Publishing Co., Нью-Йорк. 1991.

    [Hin89] Хинтон, Г. Э. «Процедуры обучения коннекционистов», Искусственный интеллект, Том. 41. С. 185-234, 1989.

    [Hir91] Hirose, Y. — Yamashita, K. — Hijiya, S. «Алгоритм обратного распространения, который меняет количество скрытых единиц», Neural Networks , Vol.4. № 1. С. 61-66. 1991.

    [Hoe70] Hoerl, A.E. — Kennard, R.W. «Регрессия хребта: смещенная оценка для неортогональных задач. Технометрика , Том. 12. № 3. С. 55-67, 1970.

    [Hol75] Холланд, Дж. Х. «Адаптация в естественных и искусственных системах», Анн-Арбор, Мичиган: University of Michigan Press, 1975.

    [Hol77] Holland, PW — Welsch, RE. «Надежная регрессия с использованием итеративно перевзвешенных методов наименьших квадратов», Communications in Statistics: Theory and Methods , A6, pp.813-827. 1977.

    [Hol92] Holland, JH «Genetikai algoritmusok», Tudomány , 1992. szept. стр. 28-34.

    [Hop82] Хопфилд, Дж. Дж. «Нейронные сети и физические системы с возникающими коллективными вычислительными возможностями», Proc. Натл. акад. Наука. Том. 79. стр. 2554-2558. 1982.

    [Hor98] Horváth, G. (szerk), «Neuralis hálózatok és műszaki alkalmazásaik» Egyetemi tankönyv, Műegyetemi Kiadó, Будапешт. 1998.

    [Hor99] Хорват, Г.- Патаки, Б. — Штраус, Гий. «Моделирование черного ящика сложного производственного процесса», Proc. конференции и семинара IEEE 1999 г. по разработке компьютерных систем , Нэшвилл, Теннесси, США. стр. 60-66. 1999.

    [Hor07] Horváth, G. — Szabó, T. «Ядро CMAC с улучшенными возможностями», IEEE Trans. по системному человеку и кибернетике, часть B. Vol. 37. С. 124-138. 2007.

    [Hu03] Hu, S. — Liao, X. — Mao, X. «Стохастические нейронные сети Хопфилда», Journal of Physics A: Mathematical and General .Том. 35. 2003. стр. 2235-2249.

    [Hua88] Хуанг, В.Ю. — Липпманн, Р.П. «Нейронные сети и традиционные классификаторы», в: Д.З. Андерсон (редактор), Системы обработки нейронной информации, (Денвер, 1987) Американский институт физики, стр. 387-396. Нью-Йорк, 1988 год.

    .

    [Hub81] Huber, P. J. «Надежная статистика», Wiley, 1981.

    [Hun99] Хунг С. Л. — Ян, Дж. К. «Модель обучения нейронной сети MS_CMAC в проектировании конструкций» Journal of Computing in Civil Engineering , стр.1-11. 1999.

    [Hyv97] Hyvärinen A. — Oja, E. «Правила обучения с одним модулем для анализа независимых компонентов», Достижения в системах обработки нейронной информации , Vol. 9. С. 480-486. Кембридж, Массачусетс. MIT Press, 1997.

    .

    [Hyv00] Hyvärinen A. — Oja, E. «Анализ независимых компонентов: алгоритмы и приложения. Нейронные сети , Vol. 13. №4-5. стр. 411-430. 2000.

    [Hyv01] Hyvärinen, A. — Karhunen, J. — Oja, E. «Анализ независимых компонентов.John Wiley & Sons, Нью-Йорк, 2001.

    .

    [Hyv06] Hyvärinen A. – Shimizu, S. «Квазистохастический градиентный алгоритм для анализа компонентов, зависящих от дисперсии», Proc. Международная конференция по искусственным нейронным сетям (ICANN2006) , Афины, Греция, стр. 211-220, 2006 г.

    [Iig92] Iiguni, H. — Sakai, Y. «Алгоритм обучения в реальном времени для многослойной нейронной сети на основе расширенного фильтра Калмана», IEEE Trans. по обработке сигналов, Vol.40. № 4. С. 959-966. 1992.

    [Ish96] Исикава, М. «Структурное обучение с забыванием», Нейронные сети , Vol. 9. № 3. С. 509-521. 1996.

    [Jac91] Джейкобс, Р.А. — Джордан, М. И. — Новлан, С. Дж. — Хинтон, Г. Э. «Адаптивная смесь местных экспертов», Нейронные вычисления , Том. 3. С. 79-89. 1991.

    [01 января] Ян Дж. К. — Хунг, С. Л. «Нейронная сеть высокого порядка MS_CMAC», IEEE Trans. по нейронным сетям , том. 12.стр. 598-603, май 2001 г.

    [Jen93] Дженкинс, Р. Э. — Юхас, Б. П. «Упрощенное решение нейронной сети с помощью декомпозиции задачи: пример грузовика, поддерживающего верх», IEEE. Транс. по нейронным сетям , Vol. 4. № 4. С. 718-720. 1993.

    [Joh92] Йоханссон, Э.М. — Доула, Ф.У. — Гудман, Д.М. «Обучение с обратным распространением для многослойных нейронных сетей с прямой связью с использованием метода сопряженных градиентов», International Journal of Neural Systems , Vol.2, № 4. С. 291-301. 1992.

    [Jor94] Джордан, М. И. — Джейкобс, Р. А. «Иерархическая смесь экспертов и алгоритм EM», Neural Computation , Vol. 6. С. 181-214. 1994.

    [Jut88] Jutten, C. — Herault, J. «Анализ независимых компонентов в сравнении с PCA», Proceedings of EUSIPCO , стр. 643-646, 1988.

    [Kar94] Karhunen, J. — Joutsensalo, J. «Представление и разделение сигналов с использованием нелинейного обучения типа PCA», Neural Networks , Vol.7. № 1. С. 113-127. 1994.

    [Kar97] Karhunen, J. — Hyvärinen, A. — Vigario, R. — Hurri, J. — and Oja, E. «Applications of Neural Blind Source Separation to Signal and Image Processing», Proc. Международной конференции IEEE 1997 по акустике, речи и обработке сигналов (ICASSP’97), , 21–24 апреля. Мюнхен, Германия, стр. 131–134. 1997.

    [Kar98] Karhunen, J. — Pajunen, P., — Oja, E. «Нелинейный критерий PCA в слепом разделении источников: связь с другими подходами», Neurocomputing , Vol.22. № 1. С. 5-20. 1998.

    [Kea96] Кернс, М. «Граница ошибки перекрестной проверки с использованием скоростей аппроксимации и оценки с последствиями для разделения обучения и тестирования», NIPS’95 , DS Touretzky, MC Mozer, ME Hasselmo (ред. ) Достижения в области систем обработки нейронной информации , MIT Press, MA. США, 1996

    [Ker95] Кер, Дж. С. — Куо, Ю. Х. — Лю, Б. Д. «Аппаратная реализация модели CMAC более высокого порядка для калибровки цвета», Proceedings, of the IEEE International Conference on Neural Networks, Perth, Vol.4. С. 1656-1661. 1995.

    [Kim90] Ким, С.П. — Бозе, Н.К. «Реконструкция двумерных дискретных сигналов с ограниченной полосой пропускания из неравномерных выборок», Труды IEE , Часть F . Том. 137. № 3. С. 197-204. 1990.

    [Kne92] Кнерр, С. — Персонназ, Л. — Дрейфус, Г. «Распознавание рукописных цифр нейронными сетями с одноуровневым обучением», IEEE Trans. по нейронным сетям , Vol. 3. 1992. С. 962-969.

    [Knu88] Кнут, Д.E. «A számítógép programozás művészete 3. Keresés és rendezés», Műszaki Könyvkiadó, Будапешт, 1988.

    [Koh82] Кохонен, Т. «Самоорганизованное формирование топологически правильных карт признаков», Биологическая кибернетика , Vol. 434.. С. 59-69. 1982

    [Koh86] Кохонен, Т. «Обучение векторному квантованию для распознавания образов», Технический отчет TKK-F-A601 . Хельсинкский технологический университет. 1986.

    [Koh88] Кохонен, Т. «Нейронная фонетическая пишущая машинка», Компьютер. Том. 21. 1988. С. 11-22.

    [Koh89] Кохонен, Т. «Самоорганизация и ассоциативная память», третье издание, Спрингер, Нью-Йорк, 1989.

    [Koh90] Кохонен, Т. «Улучшенные версии векторного квантования обучения», Международная совместная конференция по нейронным сетям. Том. 1. С. 545-550. 1990.

    [Koh00] Кохонен, Т. — Каски, С. — Лагус, К. — Салоярви, Й. — Хонкела, Й. — Паатеро, В. — Саарела, А. «Самоорганизация массивного собрания документов». IEEE Transactions on Neural Networks , Специальный выпуск о нейронных сетях для интеллектуального анализа данных и обнаружения знаний, Vol. 11, № 3. С. 574-585. 2000.

    [Кол57] Колмогоров А. Н. «О представлении непрерывных функций многих переменных суперпозицией непрерывных функций одной переменной и сложением», (Оросул) Докл. акад. наук. СССР . Том. 114. 1957. С. 953-956.

    [Kro95] Крог, А. — Ведельсби, Дж. «Ансамбли нейронных сетей, перекрестная проверка и активное обучение», Г.Тезауро, Д.С. Турецкий и Т.К. Лин (редакторы): Достижения в системах обработки нейронной информации 7 . стр. 231-238. MIT Press, Кембридж, Массачусетс: 1995.

    .

    [Kun90] Кунг, С.Ю. — Диамантарас, К.И. «Алгоритм обучения нейронной сети для адаптивного извлечения основных компонентов (APEX)», Proc. Международной конференции по акустике, обработке речи и сигналов, Vol. 2. С. 861-864. 1990.

    [Kůr92] Куркова, В. «Теорема Колмогорова и многослойные нейронные сети», Нейронные сети , Vol.5. С. 501-506. 1992.

    [Kůr97] Куркова, В. — Кайнен, П. К. — Крейнович, В. «Оценки количества скрытых единиц и вариаций относительно полупространств», Neural Networks , Vol. 10. № 6. С. 1061-1068. 1997.

    [Kwo03] Квок, Дж. Т. — Цанг, И. В. «Линейная зависимость между ε и входным шумом в ε — регрессия опорных векторов» IEEE Trans. по нейронным сетям , Vol. 14. №3. стр. 544-553. 2003.

    [Lag02] Лагус, К.«Поиск текста с использованием самоорганизующихся карт документов», Neural Processing Letters . Том. 15, № 1. С. 21-29. 2002.

    [Lag04] Lagus, K. — Kaski, S. — Kohonen, T. «Извлечение массивных коллекций документов методом WEBSOM» Информатика , Vol 163. No. 1-3. стр. 135-156. 2004.

    [Lan84] Ландау, И. Д. «Системный подход к адаптивной фильтрации», IEEE Trans. по теории информации , Vol. ИТ 30. № 2. С. 251 267. 1984.

    [Lan88] Ланг К. Дж. – Хинтон, Г. Э. «Разработка архитектуры нейронной сети с временной задержкой для распознавания речи», T , технический отчет , CMU-CS-88-152, Университет Карнеги-Меллона, Питтсбург, Пенсильвания.

    [Lan92] Lane, SH — Handelman, DA — Gelfand, JJ «Theory and Development of Higher Order CMAC Neural Networks», Журнал IEEE Control Systems , Vol. 12. № 2. С. 23-30. 1992.

    [Lau06] Лауэр, Ф. — Блох, Г. «Включение предшествующих знаний в машины опорных векторов для классификации: обзор», HAL-CCSd-CNRS, 2006.http://hal.ccsd.cnrs.fr/docs/00/06/35/21/PDF/LauerBlochNeurocomp06.pdf».

    [Le06] Le, Q.V. — Smola, A.J. — Gärtner, T «Простые основанные на знаниях машины опорных векторов», Proc. 23-й Международной конференции по машинному обучению rd , Питтсбург, Пенсильвания. стр. 521-528. 2006.

    [LeC89] LeCun, Y. — Boser, B. — Denker, JS «Обратное распространение, применяемое к распознаванию рукописного почтового индекса», Neural Computation , Vol. 1. С. 541-551.1989.

    [LeC90] Ле Кун, Ю. — Денкер, Дж. С. — Солла, С. «Оптимальное повреждение мозга», в: Турецкий, Д. (ред.) Достижения в системах обработки нейронной информации , Vol. 2. Сан-Матео, Калифорния. Морган Кауфман, стр. 598-605. 1990.

    [Lee01a] Ли, YJ. — Мангасарян, О. Л. «SSVM: машина с гладкими опорными векторами», Вычислительная оптимизация и приложения , Vol. 20. № 1. С. 5-22. 2001.

    [Lee01b] Ли, YJ. — Мангасарян, О.Л., «RSVM: машины с редуцированными опорными векторами», Proc.Первой международной конференции SIAM по интеллектуальному анализу данных , Чикаго, 2001 г.

    [Lee03] Lee , H.M. Chen C.M. — Lu, Y.F. «Самоорганизующийся классификатор нейронных сетей HCMAC», IEEE Trans. по нейронным сетям, vol. 14. С. 15-27. Январь 2003 г.

    [Lei91] Лейтон, Р. — Конрат, Б. «Алгоритм авторегрессионного обратного распространения», Proc. Международной объединенной конференции по нейронным сетям 1991 , IJCNN’91 .Том. 2. С. 369-377. 1991.

    [Les93] Лешно, М. — Лин, В. Ю. — Пинкус, А. — Шокен, С. «Многослойные сети с прямой связью с неполиномиальной функцией активации могут аппроксимировать любую функцию», Neural Networks , Vol. 6. С. 861-867. 1993.

    [Leu01] Леунг, К.С. — Цой, А.К. «Два регуляризатора для рекурсивных алгоритмов наименьших квадратов в многослойных нейронных сетях с прямой связью», IEEE Trans. по нейронным сетям , том. 12, стр. 1314-1332. 2001.

    [Lew96] Льюис, Ф. Есильдирек, А. Лю, К. «Многослойный контроллер робота на основе нейронной сети с гарантированной производительностью отслеживания». IEEE Trans. по нейронным сетям , Vol. 7. № 2. С. 388-399. 1996.

    [Li04] Li C.K. — Chiang, CT «Нейронные сети, состоящие из CMAC с одной переменной», Proc. Международной конференции IEEE по системам, человеку и кибернетике 2004 г., Гаага, Нидерланды, стр. 3482-3487, 2004 г.

    [Li05] Ли, Х., Ши, К., Макларен, П., «Бездатчиковое максимальное улавливание энергии ветра на основе нейронных сетей с компенсированным коэффициентом мощности», IEEE Trans. по промышленным применениям , Vol. 41, № 6. С. 1548-1556. 2005.

    [Lin96] Лин С. С. Ли, С. К. «Нейронная сеть на основе низкоразмерного CMAC», Труды Международной конференции IEEE по системам, человеку и кибернетике Vol. 2. С. 1297-1302. 1996.

    [Lin98] Линдси, К. С. — Линдблад, Т. «Обзор аппаратных нейронных сетей: точка зрения пользователя», http://msia02.msi.se/~lindsey/ октябрь 1998 г.

    [Lip92] Липшиц, С.П. — Ваннамейкер, Р.А. «Квантование и дизеринг: теоретический обзор», Journal of the Audio Engineering Society , Vol. 40. № 5. С. 355-375. 1992.

    [Lju99] Люнг, Л.: «Идентификация системы, теория для пользователя», второе издание, Prentice Hall, Upper Saddle River, NJ, 1999.

    [Lor76] Лоренц Г.Г. «13-я проблема Гильберта», Proc. симпозиумов по чистой математике , Vol.28. С. 419-430. 1976.

    [Lu99] Лу, Б. Л. Ито, М. «Декомпозиция задач и объединение модулей на основе отношений классов: модульная нейронная сеть для классификации шаблонов» IEEE. Транс. по нейронным сетям , Vol. 10. № 5. С. 1244-1256. 1999.

    [Mac95] Маклин, Р. Ф., «Изучение инструкций и опыта: включение теорий процедурных областей в нейронные сети, основанные на знаниях», докторская диссертация , Университет Висконсина, Мэдисон, США, 1995.

    [Mai99] Майоров, В. — Пинкус, А. «Нижние границы для аппроксимации нейронными сетями MLP», Neurocomputing , Vol. 25, стр. 81-91.1999.

    [Mal96] Malthouse, EC «Некоторые теоретические результаты по нелинейному анализу главных компонентов», ftp с http://skew2.kellogg.nwu.edu/~ecm, 24 стр. 1996.

    [Man04] Мангасарян, О. Л. — Шавлик, Дж. — Уайлд, Э. В. «Приближение ядра на основе знаний», Journal of Machine Learning Research , Vol.5. С. 1127-1141. 2004.

    [Mát65] Матьяш, Дж. «Случайная оптимизация», Автоматизация и дистанционное управление , Vol. 26. С. 246-253. 1965.

    [McC43] McCulloch, WS — Pitts W. «Логическое исчисление идей, присущих нервной деятельности», Bulletin of Mathematical Biophysics , стр. 115-133. 1943.

    [Mer06] Мерлер, С. — Юрман, Г. «Машины с остановленными опорными векторами: непараметрическое ядро, зависящее от данных», Neural Networks , Vol.19. № 10. С. 1597-1611. 2006.

    [Mha94] Мхаскар,Х. N. «Аппроксимация реальных функций с использованием нейронных сетей», в: HP Dikshit, CA Micchelli (eds.) Advances in Computational Mathematics , Нью-Дели, Индия. World Scientific, Сингапур, стр. 267-278. 1994.

    [Mik99] Mika, S. — Schölkopf, B. — Smola, A. — Müller, K-R. — Шульц, М. — Рэтч, Г. «Ядро PCA и шумоподавление в пространствах признаков», в: М. С. Кернс, С. А. Солла, Д. А. Кон (ред.) Достижения в системах обработки нейронной информации , Vol.11. С. 536-542. Кембридж, Массачусетс. MIT Press, 1999.

    .

    [Mil91] Миллер, В. Т. — Бокс, Б. А. — Уитни Э. К. «Проектирование и реализация высокоскоростной нейронной сети CMAC с использованием программируемых массивов логических ячеек CMOS», Достижения в системах обработки нейронной информации 3 . стр. 1022-1027. 1991.

    [Min69] Мински, М. — Пейперт, С. «Перцептроны», MIT Press, Кембридж, Массачусетс. 1969.

    [Mit97] Митчелл, Т. «Машинное обучение», McGraw-Hill, 1997.

    [Mon89] Монтана, Д.Л. — Дэвис, Л. «Обучение нейронных сетей с прямой связью с использованием генетических алгоритмов», Proc. Одиннадцатого IJCAI , 1989. стр. 762-767. 1989.

    [Moo88] Муди, Дж. — Даркен, К. «Обучение с локализованными рецептивными полями», Труды летней школы коннекционистских моделей 1988 г., Питтсбург, Д. Турецки, Г. Хинтон, Т. Сейновски (ред.), стр. 174–185. . Сан-Матео, Морган Кауфманн, 1988.

    [Moo89] Муди, Дж. «Быстрое обучение в иерархиях с несколькими разрешениями», Достижения в Обработка нейронной информации , 1.Турецки (ред.) Лос-Альтос, Калифорния. Морган Кауфманн, стр. 474-481. 1989.

    [Mor77] Море, Дж. Дж. «Алгоритм Левенберга-Марквардта, реализация и теория» Г. А. Уотсон (ред.) Численный анализ, конспект лекций по математике, Vol. 630. стр. 105-116, Springer, 1977.

    [Muk97] Мукерджи, С. — Осуна, Э. — Гироси, Ф. «Нелинейное прогнозирование хаотических временных рядов с использованием машины опорных векторов», Семинар IEEE по нейронным сетям для обработки сигналов, NNSP’97 , стр.511-520. 1997.

    [Mur94] Н. Мурата, С. Йошизава и Шун-Ичи Амари, Сетевой информационный критерий — определение количества скрытых единиц для модели искусственной нейронной сети, IEEE Trans. по нейронным сетям , Vol. 5. № 6. С. 865-871. 1994.

    [Mül97] Мюллер, К. Р. — Смола, А. — Шёлькопф, Б. — Ратч, Г. — Кольморген, Дж. — Вапник, В. «Прогнозирование временных рядов с помощью машин опорных векторов», Proc. искусственных нейронных сетей, ICANN’97 , стр.999-1004. Спрингер, 1997.

    .

    [Nak97] Наканиши, К. — Ткаяма, Х. «Теория среднего поля для модели нейронных сетей со спиновым стеклом: свободная энергия TAP и переход от парамагнитного к спиновому стеклу», Journal of Physics A: Mathematical and General . Том. 30. 1997. 8085-8094

    [Nar83] Нараян, С.С. — Петерсон, А.М. — Нарасима, М. Дж. «Алгоритм LMS преобразования домена» IEEE Trans. по аудиоречи и обработке сигналов , Vol. 31, стр. 631-639. 1983.

    [Nar89b] Нарендра, К. С. — Татачар, М. А. Л. «Обучение автоматам: введение», Прентис Холл, Энглвуд Клиффс, Нью-Джерси, 1989.

    [Nar90] Нарендра, К. С. — Патасарати, К. «Идентификация и управление динамическими системами с использованием нейронных сетей», IEEE Trans. Нейронные сети , Vol. 1. С. 4 27. 1990.

    .

    [Nar91] Нарендра, К.С. — Патасарати, К. «Идентификация и управление динамическими системами с использованием нейронных сетей», IEEE Trans.по нейронным сетям , Vol. 2. С. 252-262. 1991.

    [Nar05] Нарендра, К. С. — Аннасвами, А. М. «Стабильные адаптивные системы», Dover Publications, 2005.

    [Ner93] Нерран, О. — Руссель-Раго, П. — Персонназ, Л. — Дрейфус, Г. «Нейронные сети и нелинейная адаптивная фильтрация: объединение концепций и новые алгоритмы», Neural Computation , Vol. 5. С. 165-199. 1993.

    [Ngu89] Нгуен, Д. — Уидроу, Б. «Защита грузовика: пример самообучения» Proc.нейронных сетей Международная совместная конференция IEEE по нейронным сетям, IJCNN’89 , Vol. II, с. II-357-II-364, IEEE, 1989.

    [Ngu90] Нгуен, Д. — Видроу, Б. «Повышение скорости обучения двухслойных нейронных сетей путем выбора начальных значений адаптивных весов», Proc. Междунар. Совместная конференция по нейронным сетям , Vol. III. стр. 21-26. 1990.

    [Nil65] Нильссон, Нью-Джерси, «Обучающиеся машины», McGraw-Hill, Нью-Йорк, 1965.

    [Niy98] Нийоги, П.- Гироси, Ф. — Поджио, Т. «Включение предварительной информации в машинное обучение путем создания виртуальных примеров» Proc. стандарта IEEE . Том. 86. № 11. С. 2196-2209. 1998.

    [Nør00] Нёргаард, М. Равн, О. — Поульсен Н. К. — Хансен, Л. К. «Нейронные сети для моделирования и управления динамическими системами», Springer-Verlag, Лондон, 2000.

    [Oja82] Oja, E. «Упрощенная модель нейрона как анализатор главных компонентов», Journal of Mathematical Biology , Vol.15. С. 267-273. 1982.

    [Oja83] Oja, E. «Методы подпространства для распознавания образов», Research Studies Press, Letchworth, Hertfordshire, England, 1983.

    [Opi95] Опиц, Д. В. «Подход в любое время к уточнению коннекционистской теории: уточнение топологии нейронных сетей, основанных на знаниях», Докторская диссертация , Университет Висконсина, Мэдисон, США, 1995.

    [Osu99] Osuna, E. — Girosi, F. «Уменьшение сложности SVM во время выполнения», в: B. Schölkopf, C.Берджес, А. Дж. Смола (ред.) Достижения в методах ядра — поддержка векторного обучения. MIT Press, Кембридж, Массачусетс. стр. 271-284. Массачусетский технологический институт Пресс. 1999.

    [Par91] Парк, Дж. — Сандберг, И.В. «Универсальная аппроксимация с использованием функциональных сетей радиального базиса» Нейронные вычисления , Vol. 3. С. 246-257, 1991.

    [Par92] Parks, PC — Militzer, J. «Сравнение пяти алгоритмов обучения памяти CMAC для систем управления обучением», Automatica , Vol.28. № 5. С. 1027-1035. 1992.

    [Par93] Парк, Дж. — Сандберг, И.В. «Сети аппроксимации и радиально-базисных функций», Нейронные вычисления , Том 5. № 2. С. 305-316. 1993.

    [Pat98] Патаки, Б. — Хорват, Г. — Штраус, Гий. «Влияние характеристик базы данных на нейронное моделирование промышленного процесса», Proc. Международного симпозиума ISCS/IFAC по нейронным вычислениям (NC’98) . Вена. стр. 834-840. 1998.

    [Pat00] Патаки, Б., Хорват, Г., Штраус, Гю., Талата, Зс. «Обратное нейронное моделирование сталеплавильного конвертера Линц-Донавиц» e&i Elektrotechnik und Informationstechnik , Vol. 117. № 1. С. 13-17. 2000.

    [Pav05] Павлович, В. — Шонфельд, Д. — Фридман Г. «Усиление стохастического шумового процесса нейронных сетей Хопфилда», IEEE Trans. по цепям и системам , Vol. 2005. № 4. С. 213-217.

    [Pel04] Пелкманс, К. — Эспиноза, М. — Де Брабантер, Дж.- Suykens, J.A.K. — De Moor, B. «Primal-Dual Monoton Kernel Regression» Neural Processing Letters, Vol. 4. № 6. С. 17-31. 2004.

    [Pen55] Penrose, R. «Обобщенная обратная для матриц» Proc. Кембриджского философского общества , Vol. 51. С. 406-413. 1955.

    [Pet72] Петерсон, В. В. – Велдон, Э. Дж. «Коды с исправлением ошибок», второе издание, MIT Press, Кембридж, Массачусетс. 1972.

    [Pie99] Петрушка У., Браузе Р., «Использование растущих RBF-сетей в управлении технологическими процессами в резиновой промышленности», Neural Computing & Applications , № 8, 1999, стр. 95-105.

    [Pin01] Пинтелон, Р. — Шукенс, Дж. «Идентификация системы, подход в частотной области», MIT Press. 2001.

    [Pla86] Plaut, DC — Nowlan, SJ — Hinton, GE «Эксперименты по обучению с обратным распространением», Технический отчет , CMU-CS-86-126. Университет Карнеги-Меллона, 1986.

    .

    [Pla99] Платт, Дж.C. «Быстрое обучение машин опорных векторов с использованием последовательной минимальной оптимизации», в: Б. Шёлкопф, К. Берджес, А. Дж. Смола (ред.) Достижения в методах ядра — обучение опорным векторам. MIT Press, Кембридж, Массачусетс. стр. 185-208. 1999.

    [Plu93] Пламбли, М. «Хеббовская/антихеббовская сеть, которая оптимизирует информационную емкость путем ортонормализации основного подпространства» Proc. Конференция IEE по искусственным нейронным сетям , Брайтон, Великобритания. стр. 86-90. 1993

    [Pog90] Поджио, Т.- Гироси, Ф. «Сети для аппроксимации и обучения», Proc. IEEE , Vol. 78. стр. 1481-1497. 1990.

    [Pom91] Померло, Д. А. «Эффективное обучение искусственных нейронных сетей для автономной навигации», Нейронные вычисления , Vol. 3. № 1. С. 88-97. 1991.

    [Pra96] Прабху, С. М. — Гарг, Д. П. «Управление роботами на основе искусственных нейронных сетей: обзор» Journal of Intelligent and Robotic Systems , Vol. 15, № 4, с.333-365. 1996.

    [Pre02] Press, WH — Teukolsky, S.A. — Wetterling W.T. — Flannery, B.P. «Численные рецепты в C», Cambridge University Press, Books On-Line, http://www.nr.com, 2002.

    [Rad93] Рэдклифф, Н. «Рекомбинация генетического набора и ее применение для оптимизации топологии нейронной сети», Нейронные вычисления и приложения, Vol. 1. № 1. С. 67-90. 1993.

    [Ral04] Ралайвола, Л. — д’Альше-Бук, Ф. «Динамическое моделирование с ядрами для прогнозирования нелинейных временных рядов» Достижения в системах обработки нейронной информации , С.Трун, Л. Саул, Б. Шёлкопф (ред.) MIT Press, Массачусетс, 2004.

    [Ris78] Риссанен, Дж. «Моделирование по кратчайшему описанию данных», Automatica , Vol. 14. С. 465-471, 1978.

    .

    [Riv94] Rivals, L. — Cannas, D. — Personnaz, L. — Dreyfus, G. «Моделирование и управление мобильными роботами и интеллектуальными транспортными средствами с помощью нейронных сетей», Proc. конференции IEEE по интеллектуальным транспортным средствам , стр. 137-142. 1994.

    [Rob91] Робинсон, Т. — Фоллсайд, Ф.«Система распознавания речи в сети с повторяющимся распространением ошибок», Computer Speech & Language , Vol. 5. № 3. С. 259-274. 1991.

    [Ros58] Розенблатт, Ф. «Персептрон: вероятностная модель хранения информации и организации мозга», Psycol. Рев. ., Том. 65. стр. 386-408. 1958.

    [Róz91] Rózsa P. «Линейная алгебра és alkalmazásai», 3. átdolgozott kiadás, Tankönyvkiadó, Budapest, 1991.

    [Rum86] Румельхарт, Д.Э. — Хинтон, Г. Э. — Уильямс, Р. Дж. «Изучение внутренних представлений путем распространения ошибок», в Румельхарт, Д. Э. — Макклелланд, Дж. Л. (ред.) Параллельная распределенная обработка: исследования микроструктуры познания, 1. MIT Press. стр. 318-362. 1986.

    [Rus05] Рассел, С. — Норвиг, П. ”Mesterséges intelligencia modern megközelítésben”, magyar fordítás Panem, 2005

    [San89] Сэнгер, Т. «Оптимальное обучение без учителя в однослойной линейной нейронной сети с прямой связью», Neural Networks , Vol.2. № 6. С. 459-473. 1989.

    [San93] Сэнгер, Т. «Связь между алгоритмом APEX и ГСГ», Рукопись на ftp, 1993.

    [Sca92] Скалеро, Р. С. — Тепеделенлиоглу, Н. «Новый быстрый алгоритм обучения нейронных сетей с прямой связью», IEEE Trans. по обработке сигналов , Vol. 40. № 1. С. 202-210. 1992.

    [Sca98] Скарселли, Ф. — Цой, А. Х. «Универсальная аппроксимация с использованием нейронных сетей с прямой связью: обзор некоторых существующих методов и некоторых новых результатов», Neural Networks , Vol.11. № 1. С. 15-37. 1998.

    [Sch96a] Schölkopf, B. — Sung, K. — Burges, C. — Girosi, F- Niyogi, P. — Poggio, T. — Vapnik, V. ”Сравнение методов опорных векторов с гауссовскими ядрами и классификаторами функций радиального базиса », АИМ-1599. Массачусетский технологический институт. 1996. ftp://publications.ai.mit.edu/ai-publications/pdf/AIM-1599.pdf

    [Sch96b] Schölkopf, B. — Burges, C. — Vapnik, V. «Включение инвариантности в обучающие машины опорных векторов» в: C. von der Malsburg, W. von Seelen, J.К. Форбрюгген, Б. Зендхофф (редакторы): Искусственные нейронные сети — ICANN’96 , Springer Lector Notes in Computer Sciences. Том. 1112, Берлин, стр. 47-52. 1996.

    [Sch96c] Schölkopf, B. — Smola, A. — Müller, K.-R. «Нелинейный компонентный анализ как проблема собственных значений ядра», Технический отчет № 44. Институт Макса Планка по биологической кибернетике. 1996.

    [Sch97] Schölkopf, B. «Обучение с опорными векторами», R. Oldenburg Verlag, Мюнхен, 1997.

    [Sch99] Шёлькопф, Б.- Берджес, К. — Смола, А. «Достижения в методах ядра поддерживают векторное обучение», MIT Press, MA. США. 1999.

    [Sch02] Schölkopf, B. — Smola, A. «Обучение с помощью машин опорных векторов ядер, регуляризация, оптимизация и не только», MIT Press, MA. США. 2002.

    [Scha90] Шапир, Р. Э. «Сила слабой обучаемости», Machine Learning , Vol. 5. С. 197-227. 1990.

    [Scha99] Шапире, Р. Э., «Краткое введение в бустинг», Proc.Шестнадцатой международной объединенной конференции по искусственному интеллекту (IJCAI-99), Vol. 2. С. 1401-1406, 1999.

    .

    [Scha02] Шапир, Р. Э., «Ускоряющий подход к машинному обучению: обзор», Семинар ИИГС по нелинейной оценке и классификации , Беркли, Калифорния, 2002.

    [Sej87] Sejnowski, TJ — Rosenberg, CR «Параллельные сети, которые учатся произносить текст на английском языке», Complex Systems , Vol. 1. С. 145-168. 1987.

    [Šer96] Шербеджия, Н.B. «Моделирование искусственных нейронных сетей на параллельных архитектурах», Computer IEEE , март, стр. 56-63. 1996.

    [Sha92] Shah, S. — Palmieri, F. — Datum, M. «Алгоритмы оптимальной фильтрации для быстрого обучения в нейронных сетях с прямой связью», Neural Networks , Vol. 5. С. 779-787. 1992.

    [Sha02] Шоу-Тейлор, Дж. — Кристианини, Н. «Об обобщении алгоритмов мягкой маржи», IEEE Trans. по теории информации , Vol. 48. С. 2721-2735.2002.

    [Sim00] Simoes, M., Furukawa, C., Mafra, A., Adamowski, JC, «Новая система акустической передачи на основе конкурентного обучения на основе нейронных сетей для мониторинга нефтяных скважин», IEEE Transactions on Industry Applications , Vol. . 36, № 2, стр. 484-491. 2000.

    [Sjö95] Sjöberg, J. — Zhang, Q. — Ljung, L. — Benveniste, A. — Deylon, B. — Glorennec, P.-Y. — Хьялмарссон, Х. — Юдицкий, А. «Нелинейное моделирование черного ящика в системной идентификации: унифицированный обзор» Технический отчет , Университет Линчёпинга, №: LiTH-ISY-R-1742, 1995.

    [Sma06] Ван Дер Смагт, П. – Омидвар, О.М. (ред.), «Нейронные системы для робототехники», Academis Press, 2006.

    [Sol81] Солис, Ф. Дж., -Ветс, Дж. Б. «Минимизация методами случайного поиска», Mathematics of Operation Research , Vol. 6. С. 19-30. 1981.

    [Sol96] Соллич, П. — Крог, А. «Обучение с ансамблями: чем может быть полезно переобучение», Достижения в системах обработки нейронной информации , Vol. 8, стр. 190-196, MIT Press, 1996.

    [Spr65] Спречер, Д. А. «О структуре непрерывных функций нескольких переменных», Transactions American Mathematical Society , Vol. 115, стр. 340-355. 1965.

    [Spe93] Спердути, А. — Старита, А. «Ускорение обучения и оптимизация сети с расширенным обратным распространением», Neural Networks, Vol. 6. С. 365 383. 1993.

    .

    [Str98] Strausz, Gy. — Хорват, Г. — Патаки, Б. «Опыты по результатам нейронного моделирования производственного процесса» Proc.инженерного применения нейронных сетей, EANN’98 , Гибралтар, стр. 213-220. 1998.

    [Sto78] Stone, M. «Перекрестная проверка: обзор», Mathematische Operationsforschung Statistischen , Vol. 9. С. 127-140. 1978.

    [Su03] Су, С. Ф. — Тао Т. — Хунг, Т. Х. «Кредитное присвоение CMAC и его применение к контроллерам онлайн-обучающихся роботов», IEEE Trans. по системному человеку и кибернетике — часть B. Vol. 33, стр. 202-213. 2003.

    [Sum99] Сумма, Дж.- Леунг, К. — Янг, Г. — Кей, В. «О методе фильтрации Калмана в обучении и сокращении нейронных сетей» IEEE Trans. по нейронным сетям , Vol. 10, стр. 161-166. 1999.

    [Sun00] Sun, Y. «Алгоритмы на основе нейронных сетей Хопфилда для восстановления и реконструкции изображений», IEEE Trans. по обработке сигналов , Vol. 48, № 7, июль 2000 г. стр. 2105 2131.

    [Sun05] Sun, Q. — DeJong, G. «SVM с дополненными объяснениями: подход к включению знаний в обучение SVM», Proc.22-й Международной конференции по машинному обучению nd , Бонн, Германия. стр. 864-871. 2005.

    [Sut98] Sutton, RS, — Barto, AG «Обучение с подкреплением: введение», Bradford Book, MIT Press, Cambridge, 1998.

    [Suy99] Suykens, J. — deMoor, B. – Vandewalle, GE «Разработка архитектуры нейронной сети с временной задержкой для распознавания речи» Технический отчет , CMU-CS-88-152, Университет Карнеги-Меллона, Питтсбург, Пенсильвания.1999.

    [Suy00] Suykens, JAK — Lukas, L. — Vandewalle, J. «Классификаторы опорных векторов разреженного метода наименьших квадратов», Европейский симпозиум ESANN’2000 по искусственным нейронным сетям , стр. 37–42. 2000,

    [Suy02a] Suykens, J.A.K. — Gestel, V.T. — De Brabanter, J. — De Moor, B. — Vandewalle, J. «Машины опорных векторов наименьших квадратов», World Scientific, 2002.

    [Suy02b] Сайкенс, Дж. А. К. Де Брабантер, Дж. — Лукас, Л. — Вандевалле, Дж.«Машины опорных векторов методом взвешенных наименьших квадратов: надежность и разреженная аппроксимация», Neurocomputing , Vol. 48. № 1-4. стр. 85-105. 2002.

    [Szők68] Szőkefalvi-Nagy Béla: «Valós függvények és függvénysorok», Tankönyvkiadó, Budapest, 1968.

    [Tak93] Takahashi, Y. Возможности обобщения и аппроксимации многослойных сетей, Нейронные вычисления , Vol. 5. С. 132-139. 1993.

    [Tak03] Takács G. ”Irányítószám-felismerő rendszer”, TDK dolgozat, BME VIK.2003.

    [Tik77] Тихонов А. Н. — Арсенин В. Ю. «Решения некорректных задач», Вашингтон, округ Колумбия: WH Winston, 1997.

    [Tow91] Тоуэлл, Г.Г. «Знаки символов и нейронные сети: вставка, уточнение и извлечение», Докторская диссертация , Университет Висконсина, Мэдисон, США, 1991.

    [Val84] Valiant, L.G. «Теория обучаемого» Сообщения ACM , Vol. 27. С. 1134-1142, 1984.

    .

    [Val03] Валион, Дж.- Horváth, G. «Обобщенный LS-SVM», SYSID’2003 , Rotterdam, стр. 827-832. 2003,

    [Val04] Valyon, J. — Horváth, G., «Классификатор опорных векторов разреженных наименьших квадратов», Proc. Международной объединенной конференции по нейронным сетям, IJCNN 2004 , стр. 543-548. 2004.

    [Van92] Ван Оойен, А. «Улучшение сходимости алгоритма обратного распространения», Neural Networks , Vol. 5. С. 465 471. 1992.

    .

    [Van00] Ван Горп, — Дж.Шукенс, Дж. — Пинтелон, Р. «Обучение нейронных сетей с зашумленными входными данными с использованием подхода ошибок в переменных», IEEE Trans. по нейронным сетям , Vol. 11. № 2. С. 402-414. 2000.

    [Vap79] Вапник В. Н. — Червоненкис А. Я. ”Teorie der Zeichenerkennung”, Akademia, Берлин, 1979.

    [Вап91 Вапник, В. Червоненкис, А.Я. «Необходимые и достаточные условия непротиворечивости метода эмпирической минимизации риска», Распознавание образов и анализ изображений , Vol.1. С. 284-305, 1991.

    [Vap95] Вапник, В. Н. «Природа статистической теории обучения», Springer, Нью-Йорк, 1995.

    [Vap98] Вапник В. Н. «Статистическая теория обучения», Wiley-Intrescience, 1998.

    [Vap99] Вапник В. Н. «Обзор теории статистического обучения» IEEE Trans. по нейронным сетям, Vol. 10. № 5. С. 988-1000. 1999.

    [Vee95] Veelenturf, LPJ «Анализ и применение искусственных нейронных сетей», Prentice Hall, London, 1995.

    [Vid93] Видьясагар, М. «Конвергенция нейронных сетей высшего порядка с модифицированным обновлением», Proc. Междунар. Конференция по нейронным сетям , Том 3. стр. 1379-1384. 1993.

    [Vin00] Винсент, П. — Бенжио, Дж. «Архитектура векторной сети нейронной поддержки с адаптивными ядрами», Proc. Междунар. Совместная конференция по нейронным сетям, IJCNN, 2000. стр. 187-192. 2000.

    [Vog88] Vogl, T. P. — Manglis, J. K. — Rigler, A.К. — Зинк, В. Т. — Алкон, Д. Л. «Ускорение сходимости методом обратного распространения», Biological Cybernetics , Vol. 59. С. 257-263. 1988.

    [Wai89] Вайбель, А. «Модульная конструкция нейронных сетей с задержкой по времени для распознавания речи», Neural Computation , Vol. 1. № 1. С. 39-46. 1989.

    [Wal91] Wallace, G.K. «Стандарт сжатия неподвижных изображений JPEG», Сообщение ACM, Vol. 34, № 4, с.30-44. 1991.

    [Wan90] Wan, EA «Временное обратное распространение для нейронных сетей FIR», Proc. Междунар. Совместная конференция по нейронным сетям, IJCNN 1990 , Vol. I. стр. 575-580. 1990.

    [Wan93] Ван, Ю. «Аналоговая КМОП-реализация обратного распространения ошибок», Proc. Междунар. Совместная конференция по нейронным сетям, IJCNN 1993 , стр. 701-706. 1993.

    [Wan94] Ван, Э. А. «Прогнозирование временных рядов с помощью коннекционистской сети с внутренними линиями задержки», Прогнозирование временных рядов: прогнозирование будущего и понимание прошлого (редакторы: Eigend, A.С. — Гершенфельд, Н.А) стр. 195-217. Эддисон Уэсли, 1994.

    [Wan96a] Wang, Z. Q. — Schiano J. L. — Ginsberg, M. «Хэш-кодирование в нейронных сетях CMAC», Proc. Международной конференции IEEE по нейронным сетям, Вашингтон, США . том. 3. С. 1698-1703, 1996.

    .

    [Wan96b] Ван, Л-Ю. — Кархунен, Дж. «Унифицированный нейронный алгоритм биградиента для надежного PCA и MCA», International Journal of Neural Systems, Vol. 7. № 1. С. 53-67.1996.

    [Wei94] Вейгенд, А.С. — Гершенфельд, Н.А. «Прогнозирование будущего и понимание прошлого», Том 15. Исследования Института Санта-Фе в области науки о сложности, Рединг, Массачусетс. Эддисон-Уэсли, 1994.

    [Wer74] Вербос, П. Дж. «Помимо регрессии: новые инструменты для прогнозирования и анализа в науках о поведении», докторская диссертация , Гарвардский университет, Кембридж, Массачусетс. 1974.

    [Wer93] Werntges, H.W. «Разделения Unity улучшают аппроксимацию нейронных функций», Proc. Международная конференция IEEE по нейронным сетям, Сан-Франциско, США . В ол. II. стр. 914-918, 1993.

    [Wer00] Wermter, S. — Sun, R. (eds.), «Гибридные нейронные системы», Lecture Notes in Artificial Intelligence, LNAI 1778 . Спрингер, 2000.

    [Wid60] Widrow, B. — Hoff, ME «Adaptive Switching Circuits» IRE WESCON Convention Record , стр. 96-104. 1960.

    [Wid85] Видроу, Б. — Стернс, С.D. «Адаптивная обработка сигналов», Prentice-Hall, Englewood Cliffs, NJ, 1985.

    .

    [Wid90b] Видроу, Б. – Глюк, М.А. «Адаптивные нейронные сети», 1990. Ежегодный международный курс по нейронным сетям, Лондон. 1990.

    [Wil89] Уильямс, Р. Дж. — Зипсер, Д. «Алгоритм обучения для непрерывно работающих полностью рекуррентных нейронных сетей», Neural Computation , Vol. 1. С. 270-280. 1989.

    [Won93] Вонг, Ю-фай «Обучение CMAC управляется одним параметром», Proc.Международной конференции IEEE по нейронным сетям, IJCNN 1993 . стр. 1439-1443. 1993.

    [Wu04] Wu, X. — Srihari, R. «Объединение предыдущих знаний с методами взвешенных опорных векторов», Proc. Десятой международной конференции по обнаружению знаний и интеллектуальному анализу данных, KDD’04 , Сиэтл, Вашингтон, США, стр. 326–333. 2004.

    [Zar00] Zarate, LE. «Модель для моделирования стана холодной прокатки с использованием нейронных сетей и факторов чувствительности», VI.Бразильский симпозиум по нейронным сетям (SBRN’00) , с. 185-190. 2000.

    [Zee97] Zeevi, A. — Meir, R. — Adler, R. «Прогнозирование временных рядов с использованием смесей экспертов», Advances in Neural Information Processing Systems 9 , стр. 309-315, MIT Press, 1997

    [Zha92] Zhang, Q. — Benveniste, A. «Wavelet Networks», IEEE Trans. по нейронным сетям , Vol. 3. С. 889-898, 1992.

    [Zha97] Zhang, Q. «Использование сетей вейвлетов в непараметрической оценке», IEEE Trans.по нейронным сетям , Vol. 8. С. 227-236, 1997.

    [Zha05] Чжан, Х. — Ву, Ю. — Пэн, К. «Восстановление изображения с использованием нейронной сети Хопфилда на основе полной вариационной модели», Достижения в области нейронных сетей — ISNN 2005, Конспект лекций по информатике., Springer Verlag, Берлин, стр. 735-740, 2005.

    .

    [Zho97] Zhong, L. — Zhongming Z. — Chongguang, Z. «Неблагоприятное влияние хэш-кодирования на сходимость CMAC и компенсационные меры», IEEE Международная конференция по интеллектуальным системам обработки, Пекин, Китай, стр.419-422, 1997.

    [Xio04] Сюн, Х. — Свами, М. Н. С. — Ахмад, М. О. «Обучение с помощью оптимизированного ядра, зависящего от данных» Proc. конференции Компьютерного общества 2004 г. по семинару по компьютерному зрению и распознаванию образов (CVPRW’04) , стр. 95-98. 2004.

    [Xio05] Xiong, H. — Swamy, M. N. S. — Ahmad, M. O.” Оптимизация ядра в эмпирическом пространстве признаков», IEEE Trans. по нейронным сетям , Vol. 16. №2 с. 460-474, 2005.

    [Yan00] Ян, С.X. — Meng, M. Q.-H.: Эффективный нейросетевой подход к динамическому планированию движения роботов. Нейронные сети, Том 13. № 2. С. 143-148. 2000.

    [Yu95] Yu, XH — Chen, GA — Cheng, SX «Динамическая оптимизация скорости обучения алгоритма обратного распространения», IEEE Trans. по нейронным сетям, Vol. 6. № 3. С. 669-677. 1995.

    [Yu97] Yu, XH — Chen, GA «Эффективное обучение с обратным распространением с использованием оптимальной скорости обучения и импульса», Neural Networks , Vol.10. № 3. С. 517-527. 1997.

    [Yu04] Ю, Т. — Ян, Т. — Дебенхам, Дж. — Симофф, С. «Включение предшествующих знаний в области машинного обучения: обзор», Proc. IEEE Intntl. Конференция по достижениям в теории и приложениях интеллектуальных систем, Люксембург, 2004 г.

    Впервые в России зарегистрирована программа, написанная на нейросети – Новости

    Роспатент первым зарегистрировал программное обеспечение, созданное в основном с помощью искусственного интеллекта (ИИ).Заявку на патент подал Сбер ИИ, разработчики которого обучили нейросеть писать код. Полученное программное обеспечение позволяет самой нейронной сети распознавать и анализировать объекты в виртуальной реальности.

    «Ведомости» сообщили о регистрации новой программы. В число разработчиков вошли сотрудники Сбера, однако, как пояснил изданию первый зампред правления компании Александр Ведяхин, их помощь в основном заключалась в обучении нейросети, написавшей ПО.

    Программа стала первой в России, написанной ИИ, подтвердил генеральный директор Telecom Daily Денис Кусков. «Создание итогового решения в этой сфере и, тем более, его регистрация в Роспатенте — это действительно первый случай», — сказал он.

    Роспатент уточнил, что при подаче документов на регистрацию Сбербанк указал, что использовал нейросеть как инструмент для создания программы. Компания уже несколько лет плотно работает в сфере технологий искусственного интеллекта, нейронных сетей и машинного обучения, и некоторые ее продукты уже вышли на рынок.В частности, в онлайн-сервисе «СберЗдоровье» используются нейросети и искусственный интеллект, что позволяет ставить предварительные диагнозы через интернет.

    Post A Comment

    Ваш адрес email не будет опубликован.