Поиск

Полнотекстовый поиск:
Где искать:
везде
только в названии
только в тексте
Выводить:
описание
слова в тексте
только заголовок

Рекомендуем ознакомиться

'Документ'
Маркетинг, маркетинговый анализ – это всегда сравнение. Что лучше, что хуже. Что – полезно, что - опасно. Поэтому мониторинг рынка – дело для маркетол...полностью>>
'Документ'
, 1 руб 1 часов /номер Номер 3 категории, 3-4 чел., 530 руб. сутки / койко-место 3. Мини-гостиница “Кристалл” Адрес: г. Екатеринбург, ул....полностью>>
'Решение'
ПМ.04 Выполнение работ по профессии младшая медицинская сестра по уходу за больными МДК.04.03. Технология оказания медицинских услуг, Медикаментозное ...полностью>>
'Программа'
Национальный исследовательский университет «Высшая школа экономики»Программа научного семинара «Информационно-аналитическая поддержка стратегического ...полностью>>

Главная > Экзаменационные вопросы

Сохрани ссылку в одной из сетей:
Информация о документе
Дата добавления:
Размер:
Доступные форматы для скачивания:

Ответы на экзаменационные вопросы интернет-курсов ИНТУИТ (INTUIT):

  1. "Обучение без учителя" характеризуется отсутствием:

  2. "Обучение с учителем" это:

  3. "Победителем" считается нейрон Кохонена

  4. Автоассоциативность памяти обусловлена:

  5. Активационная функция называется "сжимающей", если

  6. Активационная функция применяется для:

  7. Активационной функцией называется:

  8. Алгоритм обратного распространения заканчивает свою работу, когда:

  9. Алгоритм обратного распространения работает, пока:

  10. Алгоритм обучения Кохонена является:

  11. Алгоритм обучения персептрона – это:

  12. Алгоритм обучения персептрона завершает свою работу, когда

  13. Алгоритм обучения персептрона является:

  14. Алгоритм обучения сети АРТ является...

  15. Алгоритмы разобучения применяются для:

  16. В алгоритме обратного распространения при "проходе вперед"

  17. В алгоритме обратного распространения при "проходе вперед"

  18. В алгоритме обучения выходной звезды Гроссберга величина синоптической связи между двумя нейронами зависит

  19. В алгоритме обучения Кохонена величина синоптической связи между двумя нейронами зависит:

  20. В алгоритме обучения Кохонена обучению подвергаются:

  21. В алгоритме обучения Кохонена, увеличивая пороговое значение расстояния между входным вектором и весовыми значениями нейрона, мы можем добиться:

  22. В алгоритме обучения обобщенной машины Больцмана вычисление закрепленных вероятностей начинается после:

  23. В алгоритме обучения обобщенной машины Больцмана вычисление незакрепленных вероятностей начинается после:

  24. В алгоритме обучения обобщенной машины Больцмана закрепленные вероятности вычисляются, когда:

  25. В алгоритме обучения обобщенной машины Больцмана изменение весовых значений:

  26. В алгоритме обучения обобщенной машины Больцмана незакрепленные вероятности вычисляются, когда:

  27. В алгоритме обучения персептрона величина изменения синоптической связи между двумя нейронами зависит

  28. В алгоритме обучения с учителем сравнение реального выхода с желаемым происходит:

  29. В алгоритме обучения сети АРТ процедура самомасштабирования необходима для того, чтобы:

  30. В алгоритме обучения Хэбба предполагается обучение:

  31. В алгоритме разобучения в качестве степени забывания выбирают достаточно малое число для того, чтобы:

  32. В алгоритме сигнального обучения Хэбба величина синоптической связи между двумя нейронами зависит :

  33. В алгоритме Хэбба величина изменения синоптической связи между двумя нейронами зависит:

  34. В аналого-цифровом преобразователе весовые значения интерпретируют:

  35. В задаче коммивояжера каждый город представляется:

  36. В каждом слое неокогнитрона

  37. В каждом слое неокогнитрона выходы из массива комплексных плоскостей поступают на вход

  38. В каждом слое неокогнитрона выходы из массива простых плоскостей поступают на вход

  39. В какой зависимости находятся веса синоптических связей, исходящих из первого слоя нейронов, от весов синоптических связей, исходящих из второго слоя нейронов?

  40. В каком случае многослойные сети не могут привести к увеличению вычислительной мощности по сравнению с однослойной сетью?

  41. В каком случае персептрон может обучиться решать данную задачу?

  42. В каком случае после завершения алгоритма обучения можно сделать вывод, что данный персептрон не смог обучиться?

  43. В каком случае сеть ДАП превращается в сеть Хопфилда?

  44. В каком случае сигнал OUT совпадает с сигналом NET для данного нейрона когнитрона?

  45. В методе измерений сигнала OUT роль дополнительной сжимающей функции заключается в...

  46. В методе машины Больцмана изменение состояний нейронов обусловлено:

  47. В момент времени, отличный от начального, выходом слоя распознавания является

  48. В начальный момент времени выходом слоя распознавания является:

  49. В начальный момент времени выходом слоя сравнения является

  50. В однонейронном персептроне длина входного вектора характеризует:

  51. В однонейронном персептроне размерность разделяющей гиперплоскости определяется:

  52. В процессе обучения слоя Кохонена "победителем" объявляется нейрон

  53. В сети АРТ запомненный образ подвергается изменению:

  54. В сети ДАП выходы второго слоя нейронов являются:

  55. В слой сравнения информация поступает из:

  56. В статистических алгоритмах обучения величина изменения синоптической связи между двумя нейронами зависит:

  57. В статистических алгоритмах обучения искусственная температура используется для:

  58. В статической сети Хопфилда вероятность изменения веса является функцией от:

  59. В фазе распознавания свертка вычисляется при помощи скалярного произведения

  60. В фазе сравнения блок сброса:

  61. В фазе сравнения в слое сравнения возбуждаются те нейроны, которым соответствуют:

  62. В фазе сравнения значение приемника 1 устанавливается равным:

  63. В чем заключается главный недостаток процедуры латерального торможения?

  64. В чем заключается отличие АРТ-1 от АРТ-2?

  65. В чем основное отличие ассоциативной памяти от адресной?

  66. В чем преимущество метода Коши перед Больцмановским методом обучения?

  67. В чем преимущество негомогенной сети ДАП перед гомогенной?

  68. В чем состоит минус метода ограничения диапазона изменений весовых значений?

  69. Величиной NET нейрона когнитрона является:

  70. Весовые значения тормозящих нейронов из области связи задаются так, чтобы:

  71. Весовые значения тормозящих нейронов:

  72. Внутренней памятью нейрона называется:

  73. Вопрос о выборе шага при применении процедуры обучения решается следующим образом:

  74. Все ли нейроны многослойного персептрона возможно обучить?

  75. Всегда ли в статистических алгоритмах обучения производится изменение весовых значений?

  76. Всегда ли обученная сеть ДАП является устойчивой?

  77. Всегда ли по окончании фазы поиска входному вектору сопоставляется некоторый нейрон из слоя распознавания?

  78. Входная звезда Гроссберга используется для:

  79. Входным слоем обобщенного многослойного персептрона называется:

  80. Входным слоем сети называется:

  81. Входом персептрона являются:

  82. Выпуклой областью называется:

  83. Выходным слоем обобщенного многослойного персептрона называется:

  84. Выходом входной звезды Гроссберга является:

  85. Выходом выходной звезды Гроссберга является

  86. Выходом персептрона являются:

  87. Выходом тормозящего пресиноптического нейрона является:

  88. Где в нейронной сети хранится информация о классификации образов?

  89. Гетероассоциативность ДАП достигается путем:

  90. Говорят, что в сети АРТ возник адаптивный резонанс, если:

  91. Дендритами называются:

  92. Детерминистским методом обучения называется:

  93. Дискриминантной функцией называется:

  94. Для какого алгоритма более опасен сетевой паралич?

  95. Для какого алгоритма необходимо гораздо большее время сходимости?

  96. Для какого алгоритма скорость обучения более высокая?

  97. Для решения любой задачи классификации достаточно иметь:

  98. Добавление к коррекции веса значения, пропорционального величине предыдущего изменения веса, используется при методе:

  99. Добавление нейронного смещения позволяет:

  100. Долговременной памятью сети ДАП называется:

  101. Если блок сброса выработал сигнал сброса, то:

  102. Если в алгоритме обучения сети встречного распространения на вход сети подается вектор x, то желаемым выходом является

  103. Если в данной сети найдутся нейроны, которые на этапе функционирования возбуждаются более, чем один раз, то:

  104. Если в непрерывной сети Хопфилда коэффициент, определяющий крутизну сигмовидной функции, взять достаточно большим, то:

  105. Если в обучающее множество входит множество сходных между собой векторов, то сеть должна научиться:

  106. Если в процессе обучения на вход сети АРТ подавать повторяющиеся последовательности обучающих векторов, то:

  107. Если в процессе обучения некоторый вес был обнулен, то:

  108. Если возбуждающие и тормозящие входы данного нейрона достаточно велики, то его выходной сигнал OUT будет вычисляться по формуле:

  109. Если входной вектор не соответствует ни одному из запомненных образов, то

  110. Если входной вектор соответствует одному из запомненных образов, то:

  111. Если данный нейрон Кохонена является "победителем", то его значение OUT

  112. Если данный персептрон заменить персептроном с целочисленными весами, то:

  113. Если два образца сильно похожи, то:

  114. Если до начала процедуры обучения по алгоритму обратного распространения все весовые значения сети сделать равными, то

  115. Если к обучающему множеству добавить новые вектора, вызовет ли это необходимость переучивать когнитрон заново или нет?

  116. Если матрица весов не является симметричной, то будет ли данная сеть обратного распространения устойчивой?

  117. Если на вход ДАП подать частично обнуленный вектор, то сеть выдаст также частично обнуленный ассоциированный с ним вектор?

  118. Если на вход обученной сети встречного распространения подать частично обнуленный вектор, то на выходе мы получим:

  119. Если на данной обучающей паре сигнал персептрона совпал с нужным ответом, то нужно

  120. Если на данной обучающей паре символ персептрона не совпадает с нужным ответом, то:

  121. Если нейронная сеть не содержит скрытых элементов, то она:

  122. Если области связи нейронов имеют постоянный размер во всех слоях, то:

  123. Если ошибка сети на контрольном множестве стала расти, это означает, что:

  124. Если параметр сходства выбрать неоправданно высоким, то:

  125. Если параметр сходства выбрать неоправданно низким, то:

  126. Если размер шага очень большой, то:

  127. Если размер шага очень мал, то:

  128. Если сеть имеет небольшое число нейронов в скрытых слоях, то:

  129. Если сеть имеет очень большое число нейронов в скрытых слоях, то:

  130. Если сеть находится в постоянно меняющейся внешней среде, то:

  131. Если сеть слишком близко подгоняет выходные значения к имеющимся обучающим значениям, то:

  132. Если сеть содержит два промежуточных слоя, то она моделирует:

  133. Если сеть содержит один промежуточный слой, то она моделирует:

  134. Если сеть Хопфилда нашла среди запомненных ею образцов, образец соответствующий данному входному вектору, то сеть должна :

  135. Если сеть Хопфилда содержит n нейронов, то она может запомнить примерно:

  136. Если сеть Хэмминга в каждом слое содержит по n нейронов, то сколько образцов она способна запомнить?

  137. Если случайные изменения весовых значений очень велики, то:

  138. Если случайные изменения весовых значений очень малы, то:

  139. Если среди запомненных сетью Хопфилда образцов не существует образца, подходящего для данного входного вектора, то:

  140. Если статическая сеть Хопфилда обладает большой искусственной температурой, то более вероятными становятся:

  141. Если статическая сеть Хопфилда обладает низкой искусственной температурой, то более вероятными становятся:

  142. Если тормозящий вход данного нейрона слишком мал, то выходной сигнал OUT будет вычисляться по формуле:

  143. Есть ли вероятность того, что в алгоритме разобучения сеть "забудет" правильный образ?

  144. Завершает ли сеть работу, если выходы второго слоя стабилизировались, а выходы первого слоя продолжают изменяться?

  145. Задача сети Хопфилда заключается в

  146. Задача сети Хэмминга заключается в:

  147. Задачей аналого-цифрового преобразователя является то, что:

  148. Задачей комплексных узлов является:

  149. Задачей распознавания образов называется:

  150. Задачей сети АРТ является:

  151. Задачей слоя Кохонена является:

  152. Запускаем обучающий вектор Х. В каком случае весовые значения не нужно изменять?

  153. Значение активационной функции является:

  154. Значением NET нейрона слоя Гроссберга является:

  155. Из слоя распознавания информация поступает в:

  156. Из слоя сравнения информация поступает в:

  157. Информация, поступающая из предыдущего слоя неокогнитрона, подается

  158. Искусственный нейрон

  159. К какому типу памяти относится ДАП?

  160. К переобучению склонны сети с:

  161. Каждая плоскость простых узлов реагирует

  162. Каждой плоскости простых узлов сопоставлено:

  163. Каждый слой неокогнитрона состоит из:

  164. Каждый узел в плоскости простых узлов получает вход:

  165. Как происходит обучение нейронной сети?

  166. Какая активационная функция используется в персептроне?

  167. Какая из перечисленных ниже проблем локальных минимумов возникает в алгоритме обратного распространения?

  168. Какая из перечисленных ниже проблем сходимости возникает в алгоритме обратного распространения?

  169. Какая из следующих функций непредставима персептроном?

  170. Какая сеть может оказаться недостаточно гибкой, для того чтобы смоделировать имеющуюся зависимость?

  171. Какая сеть требует меньших затрат вычислительных ресурсов?

  172. Какие весовые значения должны быть навешаны на сеть до начала процедуры обучения?

  173. Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "обратного прохода"?

  174. Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "прохода вперед"?

  175. Какие сети характеризуются отсутствием памяти?

  176. Каким образом можно уменьшить количество слоев когнитрона, не причинив ущерба его вычислительным свойствам?

  177. Какими должны быть весовые значения тормозящих синоптических связей?

  178. Какова роль искусственной температуры при Больцмановском обучении?

  179. Какое минимальное количество слоев должна иметь нейронная сеть, для того чтобы к ней возможно было применить алгоритм обратного распространения?

  180. Какой должна быть активационная функция, для того чтобы возможно было применять алгоритм обратного распространения?

  181. Какой тип обучения можно использовать при обучении неокогнитрона?

  182. Когда алгоритм обучения персептрона зацикливается?

  183. Когнитрон является:

  184. Кодирование ассоциаций - это:

  185. Кодированием ассоциаций называется:

  186. Комбинирование методов распространения Коши и обратного распространения заключается в:

  187. Кратковременной памятью сети ДАП называется:

  188. Латеральное торможение данный нейрон получает:

  189. Лотарально-тормозящая связь используется :

  190. Матричное умножение XW вычисляет:

  191. Месторасположением узла в данной плоскости простых узлов определяется

  192. Метод "имитации отжига" заключается в

  193. Метод аккредитации заключается в:

  194. Метод восстановления ассоциаций заключается в том, что:

  195. Метод выпуклой комбинации заключается в том, что в начале процесса обучения всем весам слоя Кохонена присваиваются:

  196. Метод дифференциального обучения Хэбба заключается в том, что в нем для изменения синоптических связей учитываются:

  197. Метод изменений сигналов OUT заключается в том, что:

  198. Метод импульса заключается в:

  199. Метод импульса позволяет:

  200. Метод интерполяции заключается в:

  201. Метод коррекции весов пропорционально входу заключается в:

  202. Метод машины Больцмана позволяет сети Хопфилда:

  203. Метод обучения сети называется локальным, если:

  204. Метод обучения Уидроу-Хоффа отличается от метода обучения персептрона

  205. Метод отказа от симметрии синапсов позволяет:

  206. Метод ускорения сходимости заключается в:

  207. Механизм контрольной кросс-проверки заключается в:

  208. Механизм контрольной кросс-проверки необходим для того, чтобы:

  209. Модификация алгоритма обучения методом "чувства справедливости" заключается в:

  210. Можем ли мы за конечное число шагов после запуска алгоритма обучения персептрона сказать, что персептрон не может обучиться данной задаче?

  211. Может ли персептрон Розенблатта выделять ограниченную область в пространстве решений?

  212. Можно ли построить двухслойную нейронную сеть, выделяющую неограниченную область?

  213. Можно ли построить однослойную нейронную сеть с обратными связями?

  214. На вход однослойного персептрона подается вектор (a1...an). В каком случае выходом будет нулевой вектор?

  215. На вход однослойного персептрона подается вектор (a1...an). В каком случае выходом будет единичный вектор?

  216. Нейронная сеть является обученной, если:

  217. Непрерывная сеть Хопфилда является устойчивой, если:

  218. Обладает ли сеть Хопфилда свойством стабильности-пластичности?

  219. Область связи пресиноптического тормозящего нейрона:

  220. Областью связанности данного нейрона называется:

  221. Обобщенным многослойным персептроном называется:

  222. Обучающей парой называется пара векторов,...

  223. Обучающим множеством называется:

  224. Обучение обобщенной машины Больцмана является:

  225. Обучение персептрона считается законченным, когда:

  226. Обучение сети встречного распространения является:

  227. Обучение сети ДАП происходит:

  228. Обучение слоя Гроссберга является:

  229. Обучение слоя Кохонена является:

  230. Обучение тормозящего входа возбуждающего нейрона

  231. Обучением называют:

  232. Однонейронный персептрон с двумя входами:

  233. Однонейронным персептроном размерность разделяемого пространства определяется

  234. Однослойный персептрон решает задачи:

  235. Ортогонализация исходных образов позволяет:

  236. Отсутствие обратных связей гарантирует:

  237. Память называется автоассоциативной, если:

  238. Память называется ассоциативной, если извлечение необходимой информации происходит по:

  239. Память называется гетероассоциативной, если:

  240. Паралич сети может наступить, когда:

  241. Перед началом процесса обучения сети АРТ все весовые значения, являющиеся входными для слоя распознавания принимают:

  242. Перед началом процесса обучения сети АРТ все весовые значения, являющиеся выходными для слоя распознавания принимают:

  243. Персептрон Розенблатта решает задачи:

  244. Персептронной представимостью называется:

  245. Персептроном Розенблатта называется:

  246. Пластичностью называется способность памяти:

  247. По принципу "победитель забирает все" действуют:

  248. Подаем на вход персептрона вектор a. В каком случае весовые значения нужно уменьшать?

  249. Подаем на вход персептрона вектор а. В каком случае весовые значения нужно увеличивать?

  250. После окончания алгоритма обучения в нейроне слоя распознавания запоминается информация, являющаяся:

  251. После окончания алгоритма обучения информация о "шаблоне" данного класса образов хранится:

  252. Почему для статистических алгоритмов обучения распределение Коши является более приемлемым, чем распределение Больцмана?

  253. Почему изученные ранее нейронные сети не обладают свойством стабильности-пластичности?

  254. Правило двух третьих заключается в том, что:

  255. Представима ли персептроном любая интуитивно вычислимая задача?

  256. Предусмотрена ли в алгоритме обучения когнитрона процедура сбрасывания сильно больших весовых значений?

  257. При использовании неокогнитрона как классификатора, можем ли мы классифицировать образы независимо от их позиции, ориентации, размера и т.п.?

  258. При каких из ниже перечисленных условий, в алгоритме обучения неокогнитрона "без учителя" происходит обучение данной синоптической связи?

  259. При каком алгоритме обучения обучающее множество состоит как из входных, так и из выходных векторов?

  260. При каком алгоритме обучения обучающее множество состоит только из входных векторов?

  261. При каком условии сеть обратного распространения является устойчивой?

  262. При комбинированном методе распределения Коши и обратного распространения изменение веса сохраняется, если:

  263. При методе кросс-проверки считается, что множество обучающихся пар корректно разделено на две части, если:

  264. При методе кросс-проверки считается, что множество обучающихся пар некорректно разделено на две части, если:

  265. При методе кросс-проверки считается, что сеть начала переобучаться, если:

  266. При методе отказа от симметрии синапсов отрицательным фактором является:

  267. При обучении выходного нейрона величина &delta-small; является:

  268. При обучении когнитрона обучаются:

  269. При обучении неокогнитрона обучаются:

  270. При обучении персептрона предполагается обучение:

  271. При обучении сети встречного распространения обучающей парой является:

  272. При обучении сеть не сможет выбраться из локального минимума, если:

  273. При обучении скрытого нейрона величина &delta-small; является:

  274. При обучении слоя Кохонена подстраиваются весовые значения:

  275. При обучении слоя Кохонена процесс обучения состоит в:

  276. При ортогонализации исходных образов отрицательным фактором является:

  277. При предъявлении на вход обученного когнитрона некоторого вектора

  278. При стохастическом методе обучения , если целевая функция увеличивается, то:

  279. При стохастическом методе обучения изменения весовых значений сохраняются, если

  280. Принцип "элитного обучения" когнитрона заключается в том, что:

  281. Принцип работы слоя Кохонена заключается в том, что:

  282. Приращение веса возбуждающего входа данного постсиноптического нейрона зависит от:

  283. Приращение веса тормозящего входа данного постсиноптического нейрона зависит от:

  284. Проблема локализованности памяти АРТ заключается в том, что:

  285. Проблема переобучения заключается в:

  286. Простой узел возбуждается, если:

  287. Процесс лотерального торможения обеспечивает, что

  288. Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор x , на выходе мы получим:

  289. Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор y, на выходе мы получим:

  290. Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Данное изменение не скидывается, если:

  291. Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?

  292. Пусть при обучении Коши обучении сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?

  293. Работа блока сброса заключается в:

  294. Различные узлы в одной плоскости простых узлов реагируют:

  295. Рецептивной областью данного простого узла называется:

  296. Рецептивные области узлов каждой плоскости простых узлов

  297. Рецепторной областью комплексного узла называется:

  298. Самоадаптацией алгоритма обучения сети АРТ называется:

  299. Самоорганизующиеся сети используются для:

  300. Сети прямого распространения - это:

  301. Сети с обратными связями это:

  302. Сеть встречного распространения считается обученной, если:

  303. Сеть ДАП достигает стабильного состояния, когда:

  304. Сеть ДАП называется адаптивной, если:

  305. Сеть ДАП называется асинхронной, если:

  306. Сеть ДАП называется конкурирующей, если:

  307. Сеть ДАП называется негомогенной, если:

  308. Сеть называется сетью с обратными связями, если:

  309. Сеть начала переобучаться, если:

  310. Сеть с обратным распространением называется неустойчивой, если:

  311. Сеть с обратным распространением называется устойчивой, если:

  312. Сеть Хопфилда заменяется на сеть Хэмминга, если:

  313. Сетью без обратных связей называется сеть,

  314. Сигналом ошибки данного выходного нейрона называется:

  315. Синапсами называются:

  316. Синоптические связи называются тормозящими, если :

  317. Сколько булевых функций от двух переменных можно представить персептроном?

  318. Сколько нейронов должен иметь первый слой нейронной сети, умеющей выделять шестиугольник?

  319. Сколько нейронов должна содержать сеть Хемминга для того чтобы она могла запомнить n образцов?

  320. Сколько нейронов необходимо для реализации задачи коммивояжера, где n - число городов?

  321. Сколько слоев должна иметь нейронная сеть, умеющая выделять выпуклые области?

  322. Сколько слоев должна иметь нейронная сеть, умеющая выделять квадрат?

  323. Сколько слоев должна иметь нейронная сеть, умеющая выделять невыпуклые области?

  324. Сколько слоев имеет персептрон Розенблатта?

  325. Сколько слоев может содержать персептрон?

  326. Сколько слоев полноценных нейронов имеет сеть Хэмминга?

  327. Сколько слоев полноценных нейронов используется в сети Хопфилда?

  328. Сколько функциональных модулей включает в себя сеть АРТ?

  329. Скрытым слоем обобщенного многослойного персептрона называется:

  330. Слоем нейронной сети называется множество нейронов,

  331. Слой неокогнитрона состоит из

  332. Со всеми ли нейронами предыдущего слоя связан данный нейрон когнитрона?

  333. Состоянием сети Хопфилда называется :

  334. Способна ли одна и та же плоскость простых узлов реагировать как на заданный образ, так и на его произвольный поворот?

  335. Способна ли сеть встречного распространения аппроксимировать обратимые функции?

  336. Способность ДАП к обобщению заключается в:

  337. Способность неокогнитрона к самовосстановлению выражается в:

  338. Способность персептрона решать определенную задачу называется:

  339. Стабильностью называется способность памяти:

  340. Статистические методы обучения являются:

  341. Стохастическим методом обучения называется:

  342. Стратегия избежания локальных минимумов при сохранении стабильности заключается в

  343. Стратегия обучения когнитрона заключается в том, что:

  344. Суть алгоритма быстрого обучения в том, что:

  345. Суть алгоритма медленного обучения в том, что:

  346. Теорема о "зацикливании" персептрона утверждает, что:

  347. Теорема о двухслойности персептрона утверждает, что:

  348. Теорема о сходных персептронах утверждает, что:

  349. Теория обучения Хэбба подразумевает:

  350. Тестовое множество необходимо для:

  351. Устойчивость процесса поиска заключается в том, что:

  352. Фаза поиска инициализируется, если:

  353. Фаза поиска считается неуспешно завершенной, если:

  354. Фаза поиска считается успешно завершенной, если:

  355. Фаза распознавания инициализируется:

  356. Функция называется линейно неразделимой, если:

  357. Характеристика "прямого доступа" заключается в том, что:

  358. Хорошо обученная входная звезда Гроссберга способна реагировать:

  359. Целевой функцией называется:

  360. Чем отличается обучение скрытого нейрона от обучения выходного нейрона?

  361. Чем различаются комплексные узлы, лежащие в разных слоях неокогнитрона?

  362. Чем реакция комплексного узла на данный входной образ отличается от реакции простого узла, лежащего в том же слое?

  363. Чем тестовое множество отличается от контрольного множества?

  364. Что называется "эпохой" в алгоритме обучения персептрона?

  365. Что называется обучающей выборкой для обучения персептрона?

  366. Что означает величина NET?

  367. Что означает величина OUT?

  368. Что такое "неподатливое" множество образов?

  369. Что такое множество весовых значений нейрона?

  370. Что является входом искусственного нейрона?

  371. Чтобы избежать паралич сети, необходимо:

  372. Шаблон критических черт используется, когда:

  373. Шаблоном критических черт называется:

Актуальная информация по учебным программам ИНТУИТ расположена по адресу: /.

Повышение квалификации

(программ: 450)

Профессиональная переподготовка

(программ: 14)

Лицензия на образовательную деятельность и приложение

Developer Project предлагает поддержку при сдаче экзаменов учебных курсов Интернет-университета информационных технологий INTUIT (ИНТУИТ). Мы ответили на экзаменационные вопросы 380 курсов INTUIT (ИНТУИТ), всего 110 300 вопросов, 154 221 ответов (некоторые вопросы курсов INTUIT имеют несколько правильных ответов). Текущий каталог ответов на экзаменационные вопросы курсов ИНТУИТ опубликован на сайте объединения Developer Project по адресу: /

Подтверждения правильности ответов можно найти в разделе «ГАЛЕРЕЯ», верхнее меню, там опубликованы результаты сдачи экзаменов по 100 курсам (удостоверения, сертификаты и приложения с оценками).

Более 21 000 вопросов по 70 курсам и ответы на них, опубликованы на сайте /, и доступны зарегистрированным пользователям. По остальным экзаменационным вопросам курсов ИНТУИТ мы оказываем платные услуги (см. вкладку верхнего меню «ЗАКАЗАТЬ УСЛУГУ». Условия поддержки и помощи при сдаче экзаменов по учебным программам ИНТУИТ опубликованы по адресу: /

Примечания:

- ошибки в текстах вопросов являются оригинальными (ошибки ИНТУИТ) и не исправляются нами по следующей причине - ответы легче подбирать на вопросы со специфическими ошибками в текстах;

- часть вопросов могла не войти в настоящий перечень, т.к. они представлены в графической форме. В перечне возможны неточности формулировок вопросов, что связано с дефектами распознавания графики, а так же коррекцией со стороны разработчиков курсов.



Похожие документы:

  1. Ответы на экзаменационные вопросы интернет-курсов интуит (intuit): 074. Нейроинформатика Благодаря какому свойству слоя распознавания только один нейрон в слое может быть активирован?

    Экзаменационные вопросы
    Ответы на экзаменационные вопросы интернет-курсов ИНТУИТ (INTUIT): 074. ... определенному классу при классификации без учителя? Каким образом радиальная ... тип обучения используется в сетях АРТ? Какой тип обучения назван обучением с учителем? ...

Другие похожие документы..