Форум программистов
 

Восстановите пароль или Зарегистрируйтесь на форуме, о проблемах и с заказом рекламы пишите сюда - alarforum@yandex.ru, проверяйте папку спам!

Вернуться   Форум программистов > IT форум > Общие вопросы по программированию, компьютерный форум
Регистрация

Восстановить пароль
Повторная активизация e-mail

Купить рекламу на форуме - 42 тыс руб за месяц

Ответ
 
Опции темы Поиск в этой теме
Старый 16.10.2012, 19:12   #1
Любопытный человек
Пользователь
 
Регистрация: 14.01.2012
Сообщений: 39
По умолчанию Выбор нейронной сети, распознавание текста.

Добрый день, форумчане.
Возможно стоило поместить тему в раздел "Проектирование", но в данной ветке тусуется больше народу, решил рискнуть)

Появился вопрос: какую нейронку выбрать для распознавания текста.
Какой функционал нужно реализовать: после обучения нейронки возможность распознавания набора символов(слова, предложения и тп), распознавание символов разного размера(пускай даже с тем же шрифтом). Пока о распознавании с фоток речи не идет. Нужно, допустим, распознавание текста со скрина(к примеру ворда с введенным текстом) или заранее нарисованная буква\слово.

Подскажите, какую нейронную сеть лучше всего использовать в данном случае? Чтобы не перемудрить и полноценно реализовать эти функции? Учитывается вариант и без нейронки, главное, чтобы он был наиболее оптимальным и по возможности простым.
Пока выбираю нейронные сети из следующих вариантов:
1) Сверточная.
2) Обратного распространения.
Еще есть вариант использовать некий гибрид, т.е. сперва обойтись алгоритмами, потом постепенно внедрять нейронку. Но не знаю, насколько тупиковым является этот метод.

Последний раз редактировалось Любопытный человек; 16.10.2012 в 19:58.
Любопытный человек вне форума Ответить с цитированием
Старый 16.10.2012, 20:39   #2
Виталий Желтяков
Старожил
 
Аватар для Виталий Желтяков
 
Регистрация: 19.04.2010
Сообщений: 2,702
По умолчанию

Вам нужно нанять китайцев для распознавания.
Виталий Желтяков вне форума Ответить с цитированием
Старый 16.10.2012, 20:44   #3
Пепел Феникса
Старожил
 
Аватар для Пепел Феникса
 
Регистрация: 28.01.2009
Сообщений: 21,000
По умолчанию

Виталий, он серьезно хочет этим заняться.
ну зачем давать пустые ответы?
Хорошо поставленный вопрос это уже половина ответа. | Каков вопрос, таков ответ.
Программа делает то что написал программист, а не то что он хотел.
Функции/утилиты ждут в параметрах то что им надо, а не то что вы хотите.
Пепел Феникса вне форума Ответить с цитированием
Старый 16.10.2012, 23:23   #4
Utkin
Старожил
 
Аватар для Utkin
 
Регистрация: 04.02.2009
Сообщений: 18,136
По умолчанию

Для распознавания простых изображений типа букв есть вариант точек. Грубо говоря имеется строго определенное количество возможных вариантов изображений (то есть алфавит), где каждый символ характеризует несколько точек, которые никогда не встречаются в другом символе. Задача проста - для данного изображения нужно просто найти ту самую совокупность точек. Это задачи на матрицы, паскаль, 11 класс. Если конечно правильно сформулировать условие задачи. Это немного усложненный вариант системы которая распознает индексы на почтовых конвертах.
Как видите нейронные системы тут нафиг не нужны. Просто сейчас это модно, вот все и пиарят их. С другой стороны, снимать допустим надпись с фотографии таким методом гораздо проблемней - требуется несколько преобразований, не факт, что удачных.
Маньяк-самоучка
Utkin появился в результате деления на нуль.
Осторожно! Альтернативная логика

Последний раз редактировалось Utkin; 16.10.2012 в 23:29.
Utkin вне форума Ответить с цитированием
Старый 17.10.2012, 00:30   #5
Kostia
Участник клуба
 
Аватар для Kostia
 
Регистрация: 21.11.2007
Сообщений: 1,691
По умолчанию

Ясницкий. Введение в искусственный интеллект. Глава 4. Распознавание образов.
Изображения
Тип файла: jpg 123.jpg (68.9 Кб, 185 просмотров)
Kostia вне форума Ответить с цитированием
Старый 17.10.2012, 00:35   #6
Utkin
Старожил
 
Аватар для Utkin
 
Регистрация: 04.02.2009
Сообщений: 18,136
По умолчанию

Персептрон это сущесвенно ограниченное подмножество нейронных сетей. Его ущербность была математически доказана аж в 70-х годах прошлого столетия.
Kostia, тот же самый метод точек, но еще и с правом на ошибку..
Маньяк-самоучка
Utkin появился в результате деления на нуль.
Осторожно! Альтернативная логика

Последний раз редактировалось Utkin; 17.10.2012 в 00:38.
Utkin вне форума Ответить с цитированием
Старый 17.10.2012, 00:49   #7
Kostia
Участник клуба
 
Аватар для Kostia
 
Регистрация: 21.11.2007
Сообщений: 1,691
По умолчанию

Цитата:
Персептрон это сущесвенно ограниченное подмножество нейронных сетей. Его ущербность была математически доказана аж в 70-х годах прошлого столетия.
Однослойный персептрон не способен решать линейно неразделимые задачи. Доказательство в 2 строчки.
С многослойными(over 72 год) все гораздо интереснее. Например 2х слойный персептрон способен аппроксимировать любую непрерывную, гладкую функцию в единичном гиперкубе(не совсем точно, но примерно так).(Хайкин. Нейронные сети поный курс 2е издание, глава хз)
Многослойная нейронная сеть с обратными связями и задержкой z^-2 способна (эх, вылетело слово из головы) повторить любой конечный автомат. Вот только я не помню глобальные или локальные эти обратные связи.(Где-то после середины Хайкина)
А уж про то что нейронными сетями диф.уры решают, сортирую массивы, решают интегральные уравнения и т.д. (Нейроматематика, авторов не помню) вообще молчу. =)

______________
Например связка TD(lambda)-алгоритма и НС(обыкновенная многослойная сеть) для нелинейной аппроксимации функции TD-ошибки, обучающаяся методом обратного распространения, дает очень хороший результат.(нарды TD-Gammon).

Последний раз редактировалось Kostia; 17.10.2012 в 01:03.
Kostia вне форума Ответить с цитированием
Старый 17.10.2012, 00:55   #8
Utkin
Старожил
 
Аватар для Utkin
 
Регистрация: 04.02.2009
Сообщений: 18,136
По умолчанию

Цитата:
Например 2х слойный персептрон способен аппроксимировать любую непрерывную, гладкую функцию в единичном гиперкубе(не совсем точно, но примерно так).(Хайкин. Нейронные сети поный курс 2е издание, глава хз)
Многослойная нейронная сеть с обратными связями и задержкой z^-2 способна (эх, вылетело слово из головы) повторить любой конечный автомат. Вот только я не помню глобальные или локальные эти обратные связи.(Где-то после середины Хайкина)
Например, N-слойный песептрон не способен вычислить элементарную XOR. Не пудрите мозги новичку.
Цитата:
А уж про то что нейронными сетями диф.уры решают, сортирую массивы, решают интегральные уравнения и т.д. (Нейроматематика, авторов не помню) вообще молчу. =)
Правильно молчите - все это способен вычислить студент 1-2-го курса прикладной информатики, я уже не упоминаю о студентах математических факультетах - ибо такие вещи они решают без калькулятора . То есть такие алгоритмы легко перекладываются на тот же Паскаль. Да-да, все эти компоссирования мозга типа теорема Лапласа, метод Гаусса и прочая шелуха от Крамера.
Маньяк-самоучка
Utkin появился в результате деления на нуль.
Осторожно! Альтернативная логика

Последний раз редактировалось Utkin; 17.10.2012 в 01:06.
Utkin вне форума Ответить с цитированием
Старый 17.10.2012, 01:13   #9
Kostia
Участник клуба
 
Аватар для Kostia
 
Регистрация: 21.11.2007
Сообщений: 1,691
По умолчанию

Цитата:
Например, N-слойный песептрон не способен вычислить элементарную XOR.
o_O Для этой задачи достаточно 2х слойного персептрона с пороговой активационной функцией(для понта можно взять сигмоидальную). Или если добавить всего 1 дополнительный вход(3 вместо 2х), то и однословный это решит, т.е. вообще один нейрон с этой задачей справится.
Цитата:
Правильно молчите - все это способен вычислить студент 1-2-го курса прикладной информатики, я уже не упоминаю о студентах математических факультетах - ибо такие вещи они решают без калькулятора .
Крайне много вещей(большинство в реальной жизни) которые аналитически решить невозможно. Куда уж там бедным студентам.(Вспомнил как над нами препод прикололся и подсунул на контрольной неберущихся интегралов, ха, все взялись xD )
Цитата:
Да-да, все эти компоссирования мозга типа теорема Лапласа, метод Гаусса и прочая шелуха от Крамера.
Да, согласен, НС по производительности проигрывают(на одноядерных системах), да и еще по куче параметров. Их главная заслуга это возможность легко распараллелить вычисления и НС устойчивы к ошибкам(например если на один из over 100 нейронов придет битый сигнал, то на результат работы сети он особо не повлияет).

Последний раз редактировалось Kostia; 17.10.2012 в 01:19.
Kostia вне форума Ответить с цитированием
Старый 17.10.2012, 05:35   #10
Smitt&Wesson
Старожил
 
Аватар для Smitt&Wesson
 
Регистрация: 31.05.2010
Сообщений: 13,964
По умолчанию

Цитата:
Сообщение от Utkin Посмотреть сообщение
Например, N-слойный песептрон не способен вычислить элементарную XOR. Не пудрите мозги новичку.
Вы не правы. Доказано было, что однослойный песептрон не может вычислить функцию "ИСКЛЮЧАЮЩЕЕ ИЛИ". С XOR он справляется легко. Вот на счёт многослойных, я таких доказательств не встречал.
Что касаемо темы, Abby Fine Reader уже давно этим занимается и применяет не нейронные сети, а адаптивные (интеллектуальные) алгоритмы. Что это за зверь сказать не могу, так-как никогда вплотную распознаванием текста не занимался.
Пиши пьяным, редактируй трезвым.
Справочник по алгоритмам С++ Builder
Smitt&Wesson вне форума Ответить с цитированием
Ответ


Купить рекламу на форуме - 42 тыс руб за месяц

Опции темы Поиск в этой теме
Поиск в этой теме:

Расширенный поиск


Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Распознавание текста AndreyFreemant Мультимедиа в Delphi 4 27.12.2011 18:28
Обучение нейронной сети sonataprado Общие вопросы C/C++ 0 29.09.2011 20:43
имитация нейронной сети linan Помощь студентам 1 06.05.2011 16:48
Распознавание текста Босиком_по_лету Паскаль, Turbo Pascal, PascalABC.NET 1 17.04.2011 10:23
Распознавание текста postal2 Помощь студентам 8 20.08.2009 11:06