Информация

Насколько отдаленно связаны исследования в области вычислительной нейробиологии и нейронных сетей / машинного обучения?

Насколько отдаленно связаны исследования в области вычислительной нейробиологии и нейронных сетей / машинного обучения?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Если кто-то больше заинтересован в понимании того, как алгоритмы в биологическом мозге решают проблемы (теоретически, особенно в математическом аспекте), и, возможно, в построении вычислений, вдохновляемых мозгом (прикладная теория, особенно нейророботика), то предлагается сосредоточить больше внимания на изучении вычислительной техники. нейробиология, а не искусственные нейронные сети / машинное обучение? Кажется, что последний больше ориентирован на любые алгоритмы только для решения проблем с помощью компьютерного моделирования без ограничений биологического мозга, хотя все еще есть большие области для теории машинного обучения и искусственных нейронных сетей.


Вычислительная нейробиология и нейронные сети изучаются на этой магистерской программе в Университете Сассекса. Когда я проходил курс в 2004-2005 гг., Модуль нейронных сетей был обязательным, а вычислительная нейробиология была необязательной во 2-м семестре, так что разработчики курса (мировые лидеры в области биологических вычислений) думали, что изучение нейронных сетей в первую очередь может помощь в изучении вычислительной нейробиологии. Я думаю, что некоторые другие предметы, преподаваемые на курсе, могут быть вам интересны, например развитие генетических алгоритмов для управления роботами (см. Родни Брукс и корпорация iRobot).

Наконец, чтобы ответить на вопрос (!), Я думаю, вам, вероятно, понадобится некоторое понимание (простых) нейронных сетей (искусственных или иных), чтобы понять более глубокие концепции вычислительной нейробиологии.


Нейронные сети составляют один (очень важный) уровень организации, моделируемый с помощью вычислений в исследованиях мозга. Вычислительная нейробиология пытается сделать их как можно более биологически реалистичными, часто создавая модели, которые работают на нескольких уровнях, например, когда нейронные сети демонстрируют электрохимическую динамику - что, очевидно, не является целью стандартных исследований в области машинного обучения. Таким образом, в некотором смысле изучение вычислительной нейробиологии обязательно сделает вас более значительным экспертом в области искусственных нейронных сетей, чем изучение машинного обучения. Тип нейронных сетей, используемых в машинном обучении, слишком прост, чтобы объяснить работу мозга. Однако тексты по машинному обучению могут дать вам представление о том, как информация об окружающей среде может потенциально храниться в мозгу. Вычислительная нейробиология как область все еще находится в зачаточном состоянии, особенно в том, что касается моделирования обучения в мозге. Даже созданная Крисом Элиасмитом модель нейронной сети Spaun (что весьма впечатляет!) Подверглась критике со стороны Генри Маркрама (парня, получившего 1 миллиард евро от ЕС на проект Human Brain Project) за то, что она биологически нереалистична. Короче говоря, вы не обойдете основную теорию ИНС при изучении вычислительной нейробиологии и значительно расширите ее с биологической точки зрения. Однако вы можете проверить тексты по машинному обучению, чтобы увидеть, как нейронные сети могут хранить шаблоны.


К сожалению, не очень связаны. Хотя изначально искусственные нейронные сети (ИНС) были вдохновлены биологией, большая часть последующего прогресса в искусственных нейронных сетях для так называемого «машинного обучения», которое обычно связано с оптимизацией некоторых функций, пришла из математических идей, которые не были основаны на биологии; цитируя Marblestone et al. (2016):

Искусственные нейронные сети, занимающие видное место в машинном обучении, конечно же, изначально были вдохновлены нейробиологией (McCulloch and Pitts, 1943). Хотя нейробиология продолжала играть свою роль (Cox and Dean, 2014), многие из основных разработок были обусловлены пониманием математики эффективной оптимизации, а не результатами нейробиологии (Sutskever and Martens, 2013). Эта область продвинулась от простых линейных систем (Minsky and Papert, 1972) к нелинейным сетям (Haykin, 1994), к глубоким и рекуррентным сетям (LeCun et al., 2015; Schmidhuber, 2015). Обратное распространение ошибки (Werbos, 1974, 1982; Rumelhart et al., 1986) позволило эффективно обучать нейронные сети, предоставляя эффективные средства для вычисления градиента по отношению к весам многослойной сети. Методы обучения были улучшены и теперь включают в себя элементы импульса, улучшенную инициализацию весов, сопряженные градиенты и т. Д., Эволюционируя до текущего поколения сетей, оптимизированных с использованием пакетного стохастического градиентного спуска. Эти разработки не имеют очевидной связи с нейробиологией.

Марблстоун (который занимается исследованием ИИ) и его коллеги спорят (на самом деле, в этом и заключается суть их статьи), что

однако неврология и машинное обучение снова созрели для конвергенции.

Их список аргументов довольно длинный, и я, конечно, не буду отдавать им должное, но, например, они цитируют недавнюю статью, в которой предлагается объяснить, что пластичность Хебба является формой оптимизации:

Часто эти типы локальной самоорганизации также можно рассматривать как оптимизацию функции стоимости: например, определенные формы пластичности Хебба можно рассматривать как извлечение основных компонентов входных данных, что минимизирует ошибку реконструкции (Пехлеван и Чкловский, 2015) .

Marblestone et al. посвящают значительную часть своей статьи обзору недавней работы, в которой делается попытка точно определить обратное распространение (ключевой метод успеха ИНС в оптимизации) в мозге. Список гипотез о том, как обратное распространение может происходить в мозге, довольно длинный, увы, поэтому я не буду их здесь рассматривать; Я просто указываю на несколько статей и говорит о Хинтоне (2016); Liao (2015), которые исследуют, как обратное распространение связано (или нет) с биологическими новостями, или даже предлагают биологически вдохновленные альтернативы для использования в ИНС, например Бальдуцци (2014).

Еще одна проблема, которую Marblestone et al. Подробно рассмотрим, как функции затрат могут быть представлены в мозгу. И это связано с тем, как воспоминания и цели представлены в мозгу. Очевидно, что это обширная область исследований. Поскольку статьи по глубокой биологии обычно выходят за рамки моей зарплаты, я просто укажу на недавнюю статью (выделенную Марблстоуном), в которой предлагается, что «Наивный расчет полезности» лежит в основе большей части «Психологии здравого смысла»; Jara-Ettinger et. al (2016).


Мета-контроль: от психологии к вычислительной нейробиологии

Исследования последних десятилетий пролили свет на различные механизмы, лежащие в основе нашей способности к когнитивному контролю. Однако процессы метауровня, которые регулируют сам когнитивный контроль, остаются плохо изученными. Следуя терминологии искусственного интеллекта, мета-контроль может быть определен как совокупность механизмов, которые (а) отслеживают ход управляемой обработки и (б) регулируют основные параметры управления для достижения текущих целей задачи и в ответ на внутренние или внешние ограничения. С психологической точки зрения мета-контроль является важной концепцией, поскольку он может помочь объяснить и предсказать, как и когда человеческие агенты выбирают различные типы поведенческих стратегий. С точки зрения когнитивной нейробиологии, мета-контроль - полезная концепция для понимания сложных сетей в префронтальной коре, которые управляют поведением более высокого уровня, а также их взаимодействием с нейромодуляторными системами (такими как система допамина или норадреналина). Цель специального выпуска - объединить до сих пор отдельные направления исследований с трех различных точек зрения: 1) психологическая перспектива, которая определяет процессы мета-контроля на функциональном уровне и нацелена на их практическое применение в экспериментальных задачах 2) вычислительная перспектива, основанная на идеи искусственного интеллекта для формализации нормативных решений проблем мета-контроля и 3) перспектива когнитивной нейробиологии, которая определяет нейронные корреляты и механизмы, лежащие в основе мета-контроля.

Это предварительный просмотр содержимого подписки, доступ через ваше учреждение.


Вычислительное моделирование влияния эвристики научного письма на критическое мышление студентов в естественных науках с использованием машинного обучения

Это исследование призвано предоставить пример эксперимента по компьютерному моделированию (CM) с использованием алгоритмов машинного обучения. Конкретные результаты, смоделированные в этом исследовании, представляют собой прогнозируемые влияния, связанные с эвристикой научного письма (SWH) и связанные с выполнением пунктов вопросов для Корнельского теста критического мышления. Модель задачи и познания учащегося в этом исследовании использует когнитивные данные из крупномасштабного рандомизированного контрольного исследования. Результаты эксперимента с вычислительной моделью обеспечивают возможность повышения успеваемости учащихся за счет целевого когнитивного переобучения определенных когнитивных атрибутов с помощью SWH. Это исследование также показывает, что компьютерное моделирование с использованием алгоритмов машинного обучения (MLA) является важным ресурсом для тестирования образовательных вмешательств, дает информацию о конкретных гипотезах и помогает в разработке и разработке проектов будущих исследований в области естественнонаучного образования.

Это предварительный просмотр содержимого подписки, доступ через ваше учреждение.


Вычислительный интеллект

8. ВЫВОДЫ.

Вычислительный интеллект (мягкие вычисления) - это новая концепция расширенной обработки информации. Целью подходов CI является реализация нового подхода к анализу и созданию гибкой обработки информации о людях, такой как восприятие, понимание, обучение, распознавание и мышление. ИНС имитирует физиологические особенности человеческого мозга и применяется для нелинейного картирования с помощью численного подхода. FLS имитирует психологические особенности человеческого мозга и применяется для лингвистического перевода с помощью функций принадлежности. GA моделирует эволюцию на компьютере и применяется для решения задач комбинаторной оптимизации. Эти методы играют важную роль в повышении гибкости и способности к обучению производственных систем. Рассмотрев большое количество приложений и исследований методов CI, касающихся основных вопросов проектирования, планирования и производства в гибких производственных системах, эта глава продемонстрировала, что методы CI делают производственные системы более гибкими, эффективными, надежными, адаптивными и производительными.

Основные разработки гибких производственных систем включают интеграцию методов CI в автоматизированные системы, такие как CAD, CAPP, CAM и т. Д., А также улучшение производительности существующих парадигм CI. Фактически, системы CI в будущем, как ожидается, будут интегрированными, модульными и гибридными по своей природе.


Варианты доступа

Получите полный доступ к журналу на 1 год

Все цены являются ценами НЕТТО.
НДС будет добавлен позже при оформлении заказа.
Расчет налога будет завершен во время оформления заказа.

Получите ограниченный по времени или полный доступ к статье на ReadCube.

Все цены являются ценами НЕТТО.


Центр вычислительной науки о мозге при Брауновском институте исследований мозга Карни будет использовать опыт университета в области вычислений, познания и системной нейробиологии для создания новых решений для здоровья мозга.

ПРОВИДЕНС, Р.И. [Университет Брауна] - Человеческий мозг - вычислительный орган. Он хранит воспоминания на всю жизнь, распознает лица в мгновение ока, учится на опыте, планирует на будущее и свободно общается.

Чтобы прояснить, как мозг выполняет такие сложные задачи с точностью и скоростью, новый Центр вычислительной науки о мозге при Университете Брауна будет использовать опыт Брауна мирового класса в области компьютерного моделирования, информатики, познания и системной нейробиологии.

Студенты, изучающие компьютерные науки о мозге, работают в Институте Карни на Энджелл-стрит, 164. Новый центр, расположенный в Институте исследований мозга Карни при университете, был открыт в июле с целью налаживания сотрудничества между исследователями фундаментальных наук о мозге и инженерами, математиками и компьютерными специалистами, а также для внедрения инноваций в области вычислительной нейробиологии в клинические приложения и коммерциализацию. Центр возник в результате инициативы Института Карни по вычислениям в мозге и разуме, созданной в 2012 году.

Майкл Франк, директор нового центра и профессор когнитивных, лингвистических и психологических наук, сказал, что вычислительная нейробиология уже много лет является сильной стороной Брауна. По его словам, этот центр позволит университету превратиться в центр компьютерных исследований в области науки о мозге, а не в учреждение, где работают отдельные участники.

«Я надеюсь выйти за рамки того, что мы уже начали в этой области, сделать людей немного более открытыми и способствовать более глубокому пониманию взаимосвязей между несколькими уровнями вычислительной науки о мозге», - сказал Фрэнк. «Я вижу, что этот богатый, интерактивный подход приведет к появлению новых инновационных приложений, которые могут лучше оценивать и улучшать здоровье мозга».

Тщательное совместное исследование

Вычислительная нейробиология - это междисциплинарная область, которая стремится понять функции мозга на всех уровнях - от клеток до познания - с использованием принципов физики, математики, инженерии, информатики, биологии, когнитивных наук и психологии.

Некоторые исследовательские группы в Brown уже проводят исследования, которые основаны на вычислительной нейробиологии или зависят от них. Однако, по словам Фрэнка, Центр вычислительной науки о мозге предоставит более продуманную структуру для взаимодействия между преподавателями и их исследовательскими группами.

Я надеюсь выйти за рамки того, что мы уже начали в этой области, сделать людей немного более открытыми и способствовать более глубокому пониманию взаимосвязей между несколькими уровнями вычислительной науки о мозге.

«Мозг обрабатывает информацию, и вы должны использовать правильный уровень анализа, который позволит вам охарактеризовать эту обработку информации - и то, как она идет не так, - чтобы лучше понять, что происходит при аффективных расстройствах, таких как тревога и депрессия, расстройствах, включающих бред и галлюцинации. , а также расстройства действия и мышления, такие как болезнь Паркинсона и обсессивно-компульсивное расстройство », - сказал Франк. «Вычислительная наука о мозге - это клей, который помогает понять и соединить различные уровни анализа. По своей природе это междисциплинарно ».

Томас Серр, заместитель директора Центра вычислительной науки о мозге, исследует нейронные вычисления, поддерживающие зрительное восприятие. Он пытается определить, как мозг обрабатывает зрение, чтобы построить машины, которые могут видеть и интерпретировать визуальный мир так же, как это делают люди.

Проект Серра основан на 15-летнем исследовании компьютерных нейробиологических моделей обработки изображений в коре головного мозга. Центр вычислительной науки о мозге позволит Серру использовать опыт Брауна в этой области при обучении студентов и начинающих ученых.

«Для меня это все о том, чтобы научить следующее поколение компьютерных нейробиологов мыслить на разных уровнях анализа, от схем и сетей до систем и вычислений, и свободно говорить на языке нейробиологии, когнитивной нейробиологии и искусственного интеллекта», - сказал Серр, адъюнкт-профессор когнитивных, лингвистических и психологических наук, который также руководит Центром вычислений и визуализации Брауна.

Перекрестное обучение и коммерциализация

Одной из отличительных черт Центра вычислительной науки о мозге является его стипендиальная программа, призванная обеспечить продвижение проектов и идей с высоким риском, которые могут быть коммерциализированы или более широко приняты научным сообществом или промышленностью. «Цель программы - преодолеть разрыв между наукой и применением для улучшения здоровья мозга», - сказала Фредерике Петцшнер, которая присоединится к центру в этом году в качестве первого научного сотрудника и будет руководить программой вместе с Фрэнком.

Программа будет набирать начинающих карьеру провидцев на трехлетнюю резиденцию в Институте Карни. Ученые будут включать в себя ряд экспертов с вычислительными навыками - от ученых, обладающих опытом в области искусственного интеллекта, машинного обучения или вычислительной нейробиологии, до экспертов, специализирующихся на конкретных приложениях, таких как обнаружение нейронных сигнатур, связанных с патологией, стимуляция мозга с обратной связью и импульсивность и предотвращение суицида.

«Мы нанимаем ведущих ученых-исследователей как из академических кругов, так и из промышленности, чтобы они вносили свой вклад в значимые проекты на стыке нейробиологии, машинного обучения и нарушений мозга», - сказал Петцшнер, нейробиолог с физическим образованием. «Программа уникальна тем, что нацелена на объединение лучшего из обоих миров: прочная академическая база для новых открытий с поддержкой и инфраструктурой, типичной для промышленных условий, включая начальные фонды, профессиональное управление проектами, поддержку команды, планы развития карьеры и содействие и поддержка в создании дочерних компаний ».

Центр также будет обеспечивать перекрестное обучение вычислительным методам для студентов, фундаментальных ученых и врачей-ученых. В августе в центре пройдет двухнедельный семинар-конкурс моделирования под названием «Вычислительное когнитивное моделирование поведенческих и нейронных данных». Семинар будет включать ежедневные лекции и дискуссии, практические руководства по программированию и расширенные занятия, которые обеспечат более глубокое понимание сложных подходов к моделированию, подводных камней и концепций.

Фрэнк сказал, что центр также расширит участие сообщества посредством хакатонов, научных симпозиумов и серии интерактивных семинаров с участием компьютерных нейробиологов мирового класса.

«Если я закрою глаза и представлю, что я хотел бы видеть, когда думаю об этом центре, я хотел бы войти в зону инноваций и увидеть группу активных студентов, представляющих различные дисциплины в кампусе», - сказал Серр, ссылаясь на Карни. Общее пространство института для семинаров, хакатонов, задач по науке о данных и лекций. «Я хотел бы, чтобы студенты, изучающие машинное обучение и науку о данных, сотрудничали со студентами, изучающими нейробиологию и когнитивную науку, и физиками. Это моя мечта: оживленная зона инноваций, в которой студенты будут сотрудничать над проектами, которые выходят за рамки того, что любой из них в одиночку мог бы осуществить ».


Стивен Хосе Хансон

Стивен Хосе Хэнсон - профессор психологии (кампус Ньюарка) и член Центра когнитивных наук (кампус Нью-Брансуика) Университета Рутгерса.

Основополагающие проблемы в картировании человеческого мозга

Нейровизуализаторы и философы разума исследуют критические вопросы и противоречия, возникшие в результате использования картирования мозга в когнитивной нейробиологии и когнитивной науке.

Область нейровизуализации достигла водораздела. Исследования изображений мозга были источником многих достижений в когнитивной нейробиологии и когнитивной науке за последнее десятилетие, но недавняя критика и возникающие тенденции поднимают фундаментальные вопросы методологии, измерения и теории. Действительно, опасения по поводу интерпретации карт мозга вызвали серьезные противоречия в социальной нейробиологии и, что более важно, указывают на более широкий набор вопросов, которые лежат в основе всего предприятия по картированию мозга. В этом сборнике ведущие ученые - нейровизуализаторы и философы разума - пересматривают эти центральные вопросы и исследуют текущие противоречия, возникшие в когнитивной науке, когнитивной нейробиологии, информатике и обработке сигналов. Авторы обращаются как к статистическому, так и к динамическому анализу и моделированию данных нейровизуализации и их интерпретации, обсуждают локализацию, модульность и неявные предположения нейровизуализаторов о том, как эти два явления связаны между собой, разногласия по поводу корреляции данных фМРТ и социальных атрибутов (недавно охарактеризованных как хорошие, так и плохие как «корреляции вуду») и стандартный логический подход в нейровизуализации. Наконец, участники придерживаются более философской точки зрения, рассматривая природу измерения при визуализации мозга, и предлагают основу для новых структур данных нейровизуализации (эффективная и функциональная взаимосвязь - «графики»).

Авторы Уильям Бехтель, Бхарат Бисвал, Мэтью Бретт, Мартин Бунцл, Макс Колтерт, Карл Дж. Фристон, Джой Дж. Генг, Кларк Глаймур, Каланит Гриль-Спектор, Стивен Хосе Хэнсон, Тревор Харли, Гилберт Харман, Джеймс В. Хэксби, Рик Н. Хенсон, Нэнси Канвишер, Колин Кляйн, Ричард Лусмор, Себастьян Мерио, Крис Моул, Жанетт А. Мамфорд, Рассел А. Полдрак, Жан-Батист Полин, Ричард К. Ричардсон, Алексис Рош, Адина Л. Роскис, Пиа Ротштейн, Ребекка Сакс, Филипп Штерцер, Бертран Тирион, Эдвард Вул

Теория вычислительного обучения и системы естественного обучения, Том 4

Как сделать системы обучения практичными

Это четвертый и последний том статей из серии семинаров под названием «Вычислительная теория обучения и« естественные »обучающие системы». Целью семинаров было изучить возникающее пересечение теоретических исследований обучения и систем естественного обучения. В семинарах приняли участие исследователи из трех исторически различных стилей исследования обучения: теории вычислительного обучения, нейронных сетей и машинного обучения (подполе ИИ).

Том I серии знакомит с общей направленностью семинаров. В томе II рассматриваются конкретные области взаимодействия теории и эксперимента. Тома III и IV посвящены ключевым областям систем обучения, которые были разработаны в последнее время. Том III рассматривает проблему «Выбор хороших моделей». В настоящем томе, томе IV, рассматриваются способы «сделать системы обучения практичными». Редакция делит 21 статью на четыре раздела. Первые три охватывают критические проблемные области: 1) масштабирование от небольших задач к реалистичным с большими входными размерами, 2) повышение эффективности и надежности методов обучения и 3) разработка стратегий для получения хорошего обобщения на ограниченных или небольших выборках данных. В четвертом разделе обсуждаются примеры реальных систем обучения.

Авторы Клаус Абрахам-Фукс, Ясухиро Акиба, Хусейн Альмуаллим, Арунава Банерджи, Санджай Бхансали, Альвис Бразма, Густаво Деку, Дэвид Гарвин, Зубин Гахрамани, Мостефа Голеа, Рассел Хейнер, Мехди Т. Харанди, Майкл Г. Харанди, Джон Дж. Джордан, Шигео Канеда, Марджори Кленин, Пэт Лэнгли, Йонг Лю, Патрик М. Мерфи, Ральф Нойниер, Э.М. Облоу, Драган Обрадович, Майкл Дж. Паццани, Барак А. Перлмуттер, Нагешвара С.В. Рао, Питер Рейнер, Стефани Сейдж, Мартин Ф. Шланг, Бернд Шюрманн, Дейл Шурманс, Леон Шклар, В. Сундаресваран, Джеффри Тоуэлл, Иоганн Юблер, Люсия М. Вайна, Такефуми Ямазаки, Энтони М. Задор

Теория вычислительного обучения и естественные системы обучения, Том 3

Это третий из серии отредактированных томов, в которых исследуется развивающийся ландшафт исследования обучающих систем, охватывающий теорию и эксперимент, символы и сигналы. Он продолжает исследование синтеза субдисциплин машинного обучения, начатое в томах I и II. Девятнадцать статей охватывают теорию обучения, эмпирические сравнения алгоритмов обучения, использование предшествующих знаний, вероятностные концепции, а также влияние изменений во времени концепций и обратную связь с окружающей средой.

Цель этой серии - изучить пересечение трех исторически различных областей исследований в области обучения: теории вычислительного обучения, нейронных сетей и машинного обучения с ИИ. Хотя каждая область имеет свои собственные конференции, журналы, язык, исследования, результаты и направления, существует растущее пересечение и усилия по более тесной координации этих областей.

Могут ли различные сообщества чему-нибудь научиться друг у друга? В этих томах представлены исследования, которые должны быть интересны практикующим специалистам в различных дисциплинах машинного обучения, в них рассматриваются вопросы, представляющие интерес для различных подходов к машинному обучению, сравниваются различные подходы к конкретным проблемам и расширяется теория для охвата более реалистичных случаев.

Теория вычислительного обучения и естественные системы обучения, Том 2

Пересечение теории и эксперимента

Как и том I, этот второй том представляет собой синтез вопросов в трех исторически различных областях исследований в области обучения: теории вычислительного обучения, исследования нейронных сетей и символического машинного обучения. В то время как первый том предоставил форум для построения науки о вычислительном обучении в разных областях, этот том пытается определить вероятные области совместных исследований: статьи связаны с поиском ограничений для теории и в то же время интерпретацией теоретических результатов в контексте экспериментов. с актуальными системами обучения. Последующие тома будут посвящены областям, определенным как возможности для исследований.

Теория вычислительного обучения, нейронные сети и машинное обучение искусственного интеллекта кажутся разрозненными областями, на самом деле у них одна и та же цель: создать машину или программу, которые могут учиться в своей среде. Соответственно, многие статьи в этом томе посвящены проблеме обучения на примерах. В частности, они предназначены для поощрения дискуссии между теми, кто пытается создать алгоритмы обучения (например, алгоритмы, рассматриваемые при теоретическом анализе обучения, сильно отличаются от алгоритмов, используемых исследователями нейронных сетей или машинного обучения), и теми, кто пытается их анализировать.

В первом разделе представлены теоретические объяснения рассматриваемых систем обучения, во втором разделе рассматриваются вопросы выбора модели и индуктивного смещения, в третьем разделе представлены новые алгоритмы обучения, в четвертом разделе исследуется динамика обучения в нейронных сетях с прямой связью, а в последнем разделе фокусируется на применении алгоритмов обучения.


4. Когда была установлена ​​текущая связь между CNN и визуальной системой?

Большая часть шума по поводу CNN в нейробиологии сегодня происходит из нескольких исследований, опубликованных в

2014. Эти исследования явно сравнивали нейронную активность, зарегистрированную у людей и макак, с искусственной активностью в CNN, когда разным системам показывали одни и те же изображения.

Первый - Яминь и др. (2014). В этом исследовании было изучено множество различных архитектур CNN, чтобы определить, что приводит к хорошей способности предсказывать ответы IT-клеток обезьян. Для данной сети подмножество данных использовалось для обучения моделей линейной регрессии, которые отображали активность в искусственной сети с активностью отдельных ИТ-ячеек. Прогнозирующая сила имеющихся данных была использована для оценки моделей. Также использовался второй метод, анализ репрезентативного сходства. Этот метод не предполагает прямого прогнозирования нейронной активности, а скорее спрашивает, одинаково ли две системы представляют информацию. Это делается путем построения матрицы для каждой системы, в которой значения представляют, насколько похож ответ для двух разных входных данных. Если эти матрицы выглядят одинаково для разных систем, значит, они представляют информацию одинаково.

Матрицы представительного несходства для различных систем

По обоим параметрам CNN, оптимизированные для распознавания объектов, превзошли другие модели. Кроме того, 3-й уровень сети лучше предсказывал активность ячеек V4, в то время как 4-й (и последний) уровень лучше предсказывал ИТ. Обозначение соответствия между слоями модели и областями мозга.

Другой вывод заключался в том, что сети, которые лучше справлялись с распознаванием объектов, также лучше справлялись с отслеживанием ИТ-активности без необходимости напрямую оптимизировать ИТ-данные. Эта тенденция в значительной степени сохраняется для более крупных и лучших сетей, до некоторых пределов (см. Q11).

Более поздние слои CNN более похожи на человеческие ИТ.

В другой статье, Khaligh-Razavi and Kriegeskorte (2014), также используется анализ репрезентативного сходства для сравнения 37 различных моделей ИТ человека и обезьяны. Они также обнаружили, что модели, лучше распознающие объекты, лучше соответствуют представлениям ИТ. Более того, глубокая CNN, обученная с помощью контролируемого обучения (& # 8220AlexNet & # 8221), была лучшей и наиболее подходящей, причем более поздние уровни сети работали лучше, чем предыдущие.


Вычислительная неврология и биомедицинская инженерия

Мы используем компьютерное моделирование и анализ, чтобы понять, как работают нейронные системы, и разработать инженерные решения для биомедицинских проблем, которые связаны с аномалиями или отсутствием нейронного контроля.

Нейронные системы контролируют поведение животных и обеспечивают способность к адаптивному поведению. Понимание и моделирование того, как работают нейронные системы и как они контролируют поведение, является серьезной научной задачей. Правительства США, ЕС и Японии недавно выделили более миллиарда фунтов стерлингов на поддержку фундаментальной нейробиологии и компьютерного моделирования нейронных систем.

Наша работа охватывает несколько направлений исследований в этой области. Мы стремимся построить физиологически реалистичные модели небольших нейронных систем, чтобы понять, как функциональность этих систем проявляется в результате взаимодействия нейронов в ответ на синаптические входы и нейромодуляцию из высших нейронных центров. Мы работаем над созданием биологических моделей нейронных систем, которые могут управлять виртуальными или реальными мышцами и обеспечивать физиологически значимое поведение с помощью этих исполнительных механизмов. Мы также работаем над созданием контроллеров для роботов с биологической точки зрения, отслеживанием и моделированием роста нейронов и биологических тканей, а также над анализом данных биовизуализации.

Мы генерируем некоторые данные в наших лабораториях неврологии и физиологии, а также сотрудничаем с другими группами влажных лабораторий, которые предоставляют нам данные.

Наши исследования обладают огромным потенциалом воздействия в биомедицинском контексте, а также с точки зрения инновационных биологических решений практических инженерных проблем. Например, наша работа может привести к созданию новых контроллеров и датчиков на основе биологических материалов для протезов конечностей, которые соединяются с нервами и мышцами для передачи ощущений и обеспечения прямого нейромышечного контроля. Наша работа над небольшими биологическими нервными системами может проложить путь к новым нейроимплантатам, которые могут восстановить функциональность больных или поврежденных внутренних органов.

Ведущий исследователь

Члены

  • Разработка и проверка новых красителей, чувствительных к напряжению, для исследований в области нейробиологии, Leverhulme Trust 2015-17, 178 тыс. Фунтов стерлингов - профессор Питер Андрас (PI, Университет Кил), профессор Эндрю Беннистон (CI, Университет Ньюкасла).
  • Восстановление нормальной активности поврежденных нейронных систем с использованием многоэлектродных массивов и нейронов FPGA, EPSRC (eFuturesXD), 2013-2014, 60 тыс. Фунтов стерлингов и профессор Питер Андрас (PI, Университет Ньюкасла).
  • Разработка новых чувствительных к напряжению красителей для нейровизуализации, EPSRC (IAA), 2012-2013, 30 тысяч фунтов стерлингов и профессор Питер Андрас (PI, Университет Ньюкасла).
  • Грид-нейробиология, MRC, 2002–2006, 168 тыс. Фунтов стерлингов и профессор Питер Андрас (PI Newcastle University).
  • Моделирование динамики опорно-двигательного аппарата плеча и верхней конечности, сотрудничество с Университетом Кейс Вестерн Резерв, финансируемым Национальным институтом здравоохранения, и доктором Эдом Чедвиком (Кил, ИП), доктором Димитрой Бланой (Со-И).
  • Модель руки человека для управления протезом в реальном времени, сотрудничество с Чикагским институтом реабилитации, финансируемым NIH, и доктором Эдом Чедвиком (Кил, ИП), доктором Димитрой Бланой (Со-И).

Текущий

  • Г-жа Кэти Демпси (руководители: д-р К.П. Лам, г-н Дэйв Коллинз)
  • Mr George Joseph (supervisors: Dr Theocharis Kyriacou, XXXX)
  • Ms Filipa dos Santos (supervisors: Professor Peter Andras, Dr Charles Day)
  • Ms Shaima Jabbar (supervisors: Dr Ed Chadwick, Dr Charles Day)
  • Dr Jannetta Steyn (supervisor: Professor Peter Andras Newcastle University 2015)
  • Mr David Fourie &ndash MPhil (supervisor: Professor Peter Andras Newcastle University, 2008)
  • Dr Wolfgang Stein (Illinois State University)
  • Professor Andrew Benniston (Newcastle University)
  • Professor George Kemenes (University of Sussex)
  • Dr Ildiko Kemenes (University of Sussex)
  • Professor Robert Kozma (Memphis University)
  • Professor Peter Erdi (Kalamazzoo College)
  • Professor Alan Roberts (University of Bristol)
  • Professor Allen Selverston (University of California at San Diego)
  • Professor Thomas Nowotny (University of Sussex)
  • Professor Alex Yakovlev (Newcastle University)
  • Dr Patrick Degenaar (Newcastle University)
  • Dr Terrence Mak (The Chinese University of Hong Kong)
  • Dr Carmen Wellman (University of Cologne)
  • Professor Sylvie Renaud (University of Bordeaux)
  • Dr Andras Lõrincz (Eötvös Lóránd University &ndash Budapest)
  • Professor Robert Kirsch (Case Western Reserve University, USA)
  • Professor Ton van den Bogert (Cleveland State University, USA)
  • Dr Wendy Murray (Rehabilitation Institute of Chicago, USA)

Since 2012

Andras, PE (2018) Random Projection Neural Network Approximation. 2017 International Joint Conference on Neural Networks (IJCNN 2017).

Andras, PE (2018) High-Dimensional Function Approximation with Neural Networks for Large Volumes of Data. IEEE Transactions on Neural Networks and Learning Systems, 29 (2). pp. 500-508. ISSN 2162-237X

Dos Santos, F and Andras, PE and Lam, KP (2017) Towards an Accurate Identification of Pyloric Neuron Activity with VSDi. In: 26th International Conference on Artificial Neural Networks, 11-15 September 2017, Alghero, Sardinia, Italy.

Scardapane, S and Butcher, JB and Bianchi, F and Malik, ZK (2017) Advances in Biologically Inspired Reservoir Computing. Cognitive Computation. ISSN 1866-9956 Item availability may be restricted.

Day, CR and Jabbar, SI and Heinz, N and Chadwick, EK (2016) Using Convolutional Neural Network for Edge Detection in Musculoskeletal Ultrasound Images. In: International Joint Conference on Neural Networks, 25-29 Jul 2016, Vancouver.

Steyn, JS and Andras, PE (2016) Analysis of the dynamics of temporal relationships of neural activities using optical imaging data. Journal of Computational Neuroscience. ISSN 1573-6873

Fisher, JM and Hammerla, NY and Rochester, L and Andras, P and Walker, RW (2016) Body-Worn Sensors in Parkinson's Disease: Evaluating Their Acceptability to Patients. Telemedicine and e-Health, 22 (1). 63 -69. ISSN 1556-3669

Hammerla, N, Fisher, J, Andras, P, Rochester, L, Walker, R, Ploetz, T (2015). PD disease state assessment in naturalistic environments using deep learning. Accepted for publication in the Proceedings of the AAAI &ndash 2015.

Chadwick EK, Blana D, Kirsch RF, van den Bogert AJ. 2014. Real-Time Simulation of Three-Dimensional Shoulder Girdle and Arm Dynamics. IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING, т. 61(7), 1947-1956.

Cutti AG and Chadwick EK. 2014. Shoulder biomechanics and the success of translational research. MEDICAL & BIOLOGICAL ENGINEERING & COMPUTING, т. 52(3), 205-210.

Bai, D, Benniston, AC, Clift, S, Baisch, U, Steyn, J, Everitt, N, Andras, P (2014). Low molecular weight Neutral Boron Dipyrromethene (Bodipy) dyads for fluorescence-based neural imaging. Journal of Molecular Structure, 1065-1066: 10-15.

Smith WA, Lam K-P, Dempsey KP, Mazzocchi-Jones D, Richardson JB, Yang Y. 2014. Label free cell tracking in 3-D tissue engineering constructs with high resolution imaging. DYNAMICS AND FLUCTUATIONS IN BIOMEDICAL PHOTONICS XI (vol. 8942).

Dempsey KP, Richardson JB, Lam KP. 2014. On measuring cell confluence in phase contrast microscopy.IMAGING, MANIPULATION, AND ANALYSIS OF BIOMOLECULES, CELLS, AND TISSUES XII (vol. 8947)

Marchi J, Blana D, Chadwick EK. 2014. Glenohumeral stability during a hand-positioning task in previously injured shoulders. Med Biol Eng Comput, т. 52(3), 251-256.

Bolsterlee B, Veeger DH, Chadwick EK. 2013. Clinical applications of musculoskeletal modelling for the shoulder and upper limb. Med Biol Eng Comput, т. 51(9), 953-963.

Blana D, Hincapie JG, Chadwick EK, Kirsch RF. 2013. Selection of muscle and nerve-cuff electrodes for neuroprostheses using customizable musculoskeletal model. J Rehabil Res Dev, т. 50(3), 395-408.

Lam K, Smith WA, Collins DJ, Richardson JB. 2013. On 2.5D Surface Reconstruction of Cell Cultures. In G. Ramponi, S. Loncaric & A. Carini (Eds.). University of Zagreb, Croatia: IEEE Signal Processing Society.

Lam K and Collins DJ. 2013. FACE: Fractal Analysis in Cell Engineering. In K. Elleithy (Ed.). Innovations and Advances in Computer, Information, Systems Sciences, and Engineering Lecture Notes in Electrical Engineering Volume 152, 2013, pp 1151-1164 (vol. 152, pp. 1151-1164). USA: Springer New York.

Lam KP, Dempsy KP, Smith WA, Wright KT, Masri WE, Richardson JB, IEEE. 2013. A Computational Approach to Quantifying Axon Regeneration in the Presence of Mesenchymal Stem Cells (MSCs). 2013 6TH INTERNATIONAL IEEE/EMBS CONFERENCE ON NEURAL ENGINEERING (NER) (pp. 1541-1544)

Städele, C, Andras, P, Stein, W (2012). Simultaneous measurement of membrane potential changes in multiple pattern generating neurons using voltage sensitive dye imaging. Journal of Neuroscience Methods, 203: 78-88.

Kyriacou T. (2012) Using an Evolutionary Algorithm to Determine the Parameters of a Biologically Inspired Model of Head Direction Cells. Journal of Computational Neuroscience, 32:281-295.

Lam K, Smith, WA, Collins, DJ. 2012. FORTHCOMING: Scalable 2-1/2D Reconstruction of Cell Objects. International Journal on Industrial Electronics, Technology and Automation.

Hidalgo-Bastida LA, Thirunavukkarasu S, Griffiths S, Cartmell SH, Naire S. 2012. Modeling and design of optimal flow perfusion bioreactors for tissue engineering applications. BIOTECHNOLOGY AND BIOENGINEERING, т. 109(4), 1095-1099.


Awesome Computational Neuroscience – Massive Collection of Resources

This list of schools and researchers in computational neuroscience, theoretical neuroscience, (and systems neuroscience) aims to give a global perspective of researchers in the field, make it easier to apply to the listed institutions, and also provide a reasonable way to find an advisor.

In addition to names of PIs, excerpts of their academic biographies, and links to their publications, many of the researchers are qualified with a small scale “+/=/- computational.” The metric is subjective to the editor of that material but it generally breaks down as: (+) refers to a researcher the university identifies as a computational neuroscientist, their bio consistently identifies a significant component of their research is in the field, and they have a significant body of work in the field. (=) refers to the fact that the university identifies them as practicing computational research and they have occasionally produced articles in the field. (-) means that the university identifies them as practicing computational neuroscience, their bio might also mention it, but articles could not be found that represent this material. As with ratings, this metric might change for a researcher over time as they publish more.


Computational Intelligence

8. CONCLUSIONS

Computational Intelligence (Soft Computing) is a new concept for advanced information processing. The objective of CI approaches is to realize a new approach for analyzing and create flexible information processing of humans such as sensing, understanding, learning, recognizing and thinking. The ANN simulates physiological features of the human brain, and has been applied for non-linear mapping by numerical approach. The FLS simulates psychological features of the human brain, and has been applied for linguistic translating by membership functions. The GA simulates evolution on computer, and has been applied for solving combinatorial optimization problems. These techniques play important roles in increasing the agility and learning ability of manufacturing systems. By reviewing a great number of applications and researches in CI techniques regarding the main issues in design, planning and production in agile manufacturing systems, this chapter has demonstrated that CI techniques make manufacturing systems more flexible, effective, robust, adaptive and productive.

The main developments of agile manufacturing systems comprise the integration of CI methods into computer-aided systems, such as CAD, CAPP, CAM, etc., and the improvements of the performance of present CI paradigms. As a matter of fact, CI systems in the future are expected to be integrated, modular and hybrid in nature.


Варианты доступа

Get full journal access for 1 year

All prices are NET prices.
VAT will be added later in the checkout.
Расчет налога будет завершен во время оформления заказа.

Get time limited or full article access on ReadCube.

All prices are NET prices.


Stephen José Hanson

Stephen José Hanson is Professor of Psychology (Newark Campus) and Member of the Cognitive Science Center (New Brunswick Campus) at Rutgers University.

Foundational Issues in Human Brain Mapping

Neuroimagers and philosophers of mind explore critical issues and controversies that have arisen from the use of brain mapping in cognitive neuroscience and cognitive science.

The field of neuroimaging has reached a watershed. Brain imaging research has been the source of many advances in cognitive neuroscience and cognitive science over the last decade, but recent critiques and emerging trends are raising foundational issues of methodology, measurement, and theory. Indeed, concerns over interpretation of brain maps have created serious controversies in social neuroscience, and, more important, point to a larger set of issues that lie at the heart of the entire brain mapping enterprise. In this volume, leading scholars—neuroimagers and philosophers of mind—reexamine these central issues and explore current controversies that have arisen in cognitive science, cognitive neuroscience, computer science, and signal processing. The contributors address both statistical and dynamical analysis and modeling of neuroimaging data and interpretation, discussing localization, modularity, and neuroimagers' tacit assumptions about how these two phenomena are related controversies over correlation of fMRI data and social attributions (recently characterized for good or ill as "voodoo correlations") and the standard inferential design approach in neuroimaging. Finally, the contributors take a more philosophical perspective, considering the nature of measurement in brain imaging, and offer a framework for novel neuroimaging data structures (effective and functional connectivity—"graphs").

Contributors William Bechtel, Bharat Biswal, Matthew Brett, Martin Bunzl, Max Coltheart, Karl J. Friston, Joy J. Geng, Clark Glymour, Kalanit Grill-Spector, Stephen José Hanson, Trevor Harley, Gilbert Harman, James V. Haxby, Rik N. Henson, Nancy Kanwisher, Colin Klein, Richard Loosemore, Sébastien Meriaux, Chris Mole, Jeanette A. Mumford, Russell A. Poldrack, Jean-Baptiste Poline, Richard C. Richardson, Alexis Roche, Adina L. Roskies, Pia Rotshtein, Rebecca Saxe, Philipp Sterzer, Bertrand Thirion, Edward Vul

Computational Learning Theory and Natural Learning Systems, Volume 4

Making Learning Systems Practical

This is the fourth and final volume of papers from a series of workshops called "Computational Learning Theory and `Natural' Learning Systems." The purpose of the workshops was to explore the emerging intersection of theoretical learning research and natural learning systems. The workshops drew researchers from three historically distinct styles of learning research: computational learning theory, neural networks, and machine learning (a subfield of AI).

Volume I of the series introduces the general focus of the workshops. Volume II looks at specific areas of interaction between theory and experiment. Volumes III and IV focus on key areas of learning systems that have developed recently. Volume III looks at the problem of "Selecting Good Models." The present volume, Volume IV, looks at ways of "Making Learning Systems Practical." The editors divide the twenty-one contributions into four sections. The first three cover critical problem areas: 1) scaling up from small problems to realistic ones with large input dimensions, 2) increasing efficiency and robustness of learning methods, and 3) developing strategies to obtain good generalization from limited or small data samples. The fourth section discusses examples of real-world learning systems.

Contributors Klaus Abraham-Fuchs, Yasuhiro Akiba, Hussein Almuallim, Arunava Banerjee, Sanjay Bhansali, Alvis Brazma, Gustavo Deco, David Garvin, Zoubin Ghahramani, Mostefa Golea, Russell Greiner, Mehdi T. Harandi, John G. Harris, Haym Hirsh, Michael I. Jordan, Shigeo Kaneda, Marjorie Klenin, Pat Langley, Yong Liu, Patrick M. Murphy, Ralph Neuneier, E. M. Oblow, Dragan Obradovic, Michael J. Pazzani, Barak A. Pearlmutter, Nageswara S. V. Rao, Peter Rayner, Stephanie Sage, Martin F. Schlang, Bernd Schürmann, Dale Schuurmans, Leon Shklar, V. Sundareswaran, Geoffrey Towell, Johann Uebler, Lucia M. Vaina, Takefumi Yamazaki, Anthony M. Zador

Computational Learning Theory and Natural Learning Systems, Volume 3

This is the third in a series of edited volumes exploring the evolving landscape of learning systems research which spans theory and experiment, symbols and signals. It continues the exploration of the synthesis of the machine learning subdisciplines begun in volumes I and II. The nineteen contributions cover learning theory, empirical comparisons of learning algorithms, the use of prior knowledge, probabilistic concepts, and the effect of variations over time in the concepts and feedback from the environment.

The goal of this series is to explore the intersection of three historically distinct areas of learning research: computational learning theory, neural networks andAI machine learning. Although each field has its own conferences, journals, language, research, results, and directions, there is a growing intersection and effort to bring these fields into closer coordination.

Can the various communities learn anything from one another? These volumes present research that should be of interest to practitioners of the various subdisciplines of machine learning, addressing questions that are of interest across the range of machine learning approaches, comparing various approaches on specific problems and expanding the theory to cover more realistic cases.

Computational Learning Theory and Natural Learning Systems, Volume 2

Intersections between Theory and Experiment

As with Volume I, this second volume represents a synthesis of issues in three historically distinct areas of learning research: computational learning theory, neural network research, and symbolic machine learning. While the first volume provided a forum for building a science of computational learning across fields, this volume attempts to define plausible areas of joint research: the contributions are concerned with finding constraints for theory while at the same time interpreting theoretic results in the context of experiments with actual learning systems. Subsequent volumes will focus on areas identified as research opportunities.

Computational learning theory, neural networks, and AI machine learning appear to be disparate fields in fact they have the same goal: to build a machine or program that can learn from its environment. Accordingly, many of the papers in this volume deal with the problem of learning from examples. In particular, they are intended to encourage discussion between those trying to build learning algorithms (for instance, algorithms addressed by learning theoretic analyses are quite different from those used by neural network or machine-learning researchers) and those trying to analyze them.

The first section provides theoretical explanations for the learning systems addressed, the second section focuses on issues in model selection and inductive bias, the third section presents new learning algorithms, the fourth section explores the dynamics of learning in feedforward neural networks, and the final section focuses on the application of learning algorithms.


Computational Modeling of the Effects of the Science Writing Heuristic on Student Critical Thinking in Science Using Machine Learning

This study is intended to provide an example of computational modeling (CM) experiment using machine learning algorithms. Specific outcomes modeled in this study are the predicted influences associated with the Science Writing Heuristic (SWH) and associated with the completion of question items for the Cornell Critical Thinking Test. The Student Task and Cognition Model in this study uses cognitive data from a large-scale randomized control study. Results of the computational model experiment provide for the possibility to increase student success via targeted cognitive retraining of specific cognitive attributes via the SWH. This study also illustrates that computational modeling using machine learning algorithms (MLA) is a significant resource for testing educational interventions, informs specific hypotheses, and assists in the design and development of future research designs in science education research.

Это предварительный просмотр содержимого подписки, доступ через ваше учреждение.


Meta-control: From psychology to computational neuroscience

Research in the past decades shed light on the different mechanisms that underlie our capacity for cognitive control. However, the meta-level processes that regulate cognitive control itself remain poorly understood. Following the terminology from artificial intelligence, meta-control can be defined as a collection of mechanisms that (a) monitor the progress of controlled processing and (b) regulate the underlying control parameters in the service of current task goals and in response to internal or external constraints. From a psychological perspective, meta-control is an important concept because it may help explain and predict how and when human agents select different types of behavioral strategies. From a cognitive neuroscience viewpoint, meta-control is a useful concept for understanding the complex networks in the prefrontal cortex that guide higher-level behavior as well as their interactions with neuromodulatory systems (such as the dopamine or norepinephrine system). The purpose of the special issue is to integrate hitherto segregated strands of research across three different perspectives: 1) a psychological perspective that specifies meta-control processes on a functional level and aims to operationalize them in experimental tasks 2) a computational perspective that builds on ideas from artificial intelligence to formalize normative solutions to meta-control problems and 3) a cognitive neuroscience perspective that identifies neural correlates of and mechanisms underlying meta-control.

Это предварительный просмотр содержимого подписки, доступ через ваше учреждение.


Awesome Computational Neuroscience – Massive Collection of Resources

This list of schools and researchers in computational neuroscience, theoretical neuroscience, (and systems neuroscience) aims to give a global perspective of researchers in the field, make it easier to apply to the listed institutions, and also provide a reasonable way to find an advisor.

In addition to names of PIs, excerpts of their academic biographies, and links to their publications, many of the researchers are qualified with a small scale “+/=/- computational.” The metric is subjective to the editor of that material but it generally breaks down as: (+) refers to a researcher the university identifies as a computational neuroscientist, their bio consistently identifies a significant component of their research is in the field, and they have a significant body of work in the field. (=) refers to the fact that the university identifies them as practicing computational research and they have occasionally produced articles in the field. (-) means that the university identifies them as practicing computational neuroscience, their bio might also mention it, but articles could not be found that represent this material. As with ratings, this metric might change for a researcher over time as they publish more.


Computational Neuroscience and Biomedical Engineering

We use computational modelling and analysis to understand how neural systems work and to design engineering solutions for biomedical problems that involve abnormal or lacking neural control.

Neural systems control the behaviour of animals and provide the ability for adaptive behaviour. Understanding and modelling how neural systems work and how they control behaviour is a major scientific challenge. Over a billion pound funding has been recently committed by the governments of the US, EU and Japan to support fundamental neuroscience and computational modelling of neural systems.

Our work covers several strands of research in this area. We aim to build physiologically realistic models of small neural systems to understand how the functionality of these systems emerges through interactions of neurons in response to synaptic inputs and neuromodulation from higher neural centres. We work on the building of biologically inspired models of neural systems that can control virtual or real muscles and deliver physiologically meaningful behaviours through these actuators. We also work on developing biologically inspired controllers for robots, on tracing and modelling growth of neurons and biological tissues, and on the analysis of bio-imaging data.

We generate some of the data in our neuroscience and physiology labs and we also collaborate with other wet-lab groups who provide us data.

Our research has a huge potential for impact in biomedical context and also in terms of innovative bio-inspired solutions to practical engineering problems. For example, our work may lead to novel bio-inspired controllers and sensors for artificial limbs that connect to nerves and muscles to deliver sensation and to allow direct neuro-muscular control. Our work on small biological neural systems may pave the way towards novel neuro-implants that can restore the functionality of diseased or damaged internal organs.

Research Lead

Члены

  • Designing and validating novel voltage sensitive dyes for neuroscience research, Leverhulme Trust 2015-17, GBP 178K - Professor Peter Andras (PI, Keele University), Professor Andrew Benniston (CI, Newcastle University).
  • Restoration of normal activity in damaged neural systems using multi-electrode arrays and FPGA neurons, EPSRC (eFuturesXD), 2013-2014, GBP 60k &ndash Professor Peter Andras (PI, Newcastle University).
  • Development of novel voltage-sensitive dyes for neuroimaging, EPSRC (IAA), 2012-2013, GBP 30k &ndash Professor Peter Andras (PI, Newcastle University).
  • Grid-enabled neuroscience, MRC, 2002-2006, GBP 168k &ndash Professor Peter Andras (PI Newcastle University).
  • Simulation of shoulder and upper limb musculoskeletal dynamics, collaboration with Case Western Reserve University, NIH funded &ndash Dr Ed Chadwick (Keele PI), Dr Dimitra Blana (Co-I).
  • Real-time human hand model for prosthesis control, collaboration with Rehabilitation Institute of Chicago, NIH funded &ndash Dr Ed Chadwick (Keele PI), Dr Dimitra Blana (Co-I).

Текущий

  • Ms Katy Dempsey (supervisors: Dr KP Lam, Mr Dave Collins)
  • Mr George Joseph (supervisors: Dr Theocharis Kyriacou, XXXX)
  • Ms Filipa dos Santos (supervisors: Professor Peter Andras, Dr Charles Day)
  • Ms Shaima Jabbar (supervisors: Dr Ed Chadwick, Dr Charles Day)
  • Dr Jannetta Steyn (supervisor: Professor Peter Andras Newcastle University 2015)
  • Mr David Fourie &ndash MPhil (supervisor: Professor Peter Andras Newcastle University, 2008)
  • Dr Wolfgang Stein (Illinois State University)
  • Professor Andrew Benniston (Newcastle University)
  • Professor George Kemenes (University of Sussex)
  • Dr Ildiko Kemenes (University of Sussex)
  • Professor Robert Kozma (Memphis University)
  • Professor Peter Erdi (Kalamazzoo College)
  • Professor Alan Roberts (University of Bristol)
  • Professor Allen Selverston (University of California at San Diego)
  • Professor Thomas Nowotny (University of Sussex)
  • Professor Alex Yakovlev (Newcastle University)
  • Dr Patrick Degenaar (Newcastle University)
  • Dr Terrence Mak (The Chinese University of Hong Kong)
  • Dr Carmen Wellman (University of Cologne)
  • Professor Sylvie Renaud (University of Bordeaux)
  • Dr Andras Lõrincz (Eötvös Lóránd University &ndash Budapest)
  • Professor Robert Kirsch (Case Western Reserve University, USA)
  • Professor Ton van den Bogert (Cleveland State University, USA)
  • Dr Wendy Murray (Rehabilitation Institute of Chicago, USA)

Since 2012

Andras, PE (2018) Random Projection Neural Network Approximation. 2017 International Joint Conference on Neural Networks (IJCNN 2017).

Andras, PE (2018) High-Dimensional Function Approximation with Neural Networks for Large Volumes of Data. IEEE Transactions on Neural Networks and Learning Systems, 29 (2). pp. 500-508. ISSN 2162-237X

Dos Santos, F and Andras, PE and Lam, KP (2017) Towards an Accurate Identification of Pyloric Neuron Activity with VSDi. In: 26th International Conference on Artificial Neural Networks, 11-15 September 2017, Alghero, Sardinia, Italy.

Scardapane, S and Butcher, JB and Bianchi, F and Malik, ZK (2017) Advances in Biologically Inspired Reservoir Computing. Cognitive Computation. ISSN 1866-9956 Item availability may be restricted.

Day, CR and Jabbar, SI and Heinz, N and Chadwick, EK (2016) Using Convolutional Neural Network for Edge Detection in Musculoskeletal Ultrasound Images. In: International Joint Conference on Neural Networks, 25-29 Jul 2016, Vancouver.

Steyn, JS and Andras, PE (2016) Analysis of the dynamics of temporal relationships of neural activities using optical imaging data. Journal of Computational Neuroscience. ISSN 1573-6873

Fisher, JM and Hammerla, NY and Rochester, L and Andras, P and Walker, RW (2016) Body-Worn Sensors in Parkinson's Disease: Evaluating Their Acceptability to Patients. Telemedicine and e-Health, 22 (1). 63 -69. ISSN 1556-3669

Hammerla, N, Fisher, J, Andras, P, Rochester, L, Walker, R, Ploetz, T (2015). PD disease state assessment in naturalistic environments using deep learning. Accepted for publication in the Proceedings of the AAAI &ndash 2015.

Chadwick EK, Blana D, Kirsch RF, van den Bogert AJ. 2014. Real-Time Simulation of Three-Dimensional Shoulder Girdle and Arm Dynamics. IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING, т. 61(7), 1947-1956.

Cutti AG and Chadwick EK. 2014. Shoulder biomechanics and the success of translational research. MEDICAL & BIOLOGICAL ENGINEERING & COMPUTING, т. 52(3), 205-210.

Bai, D, Benniston, AC, Clift, S, Baisch, U, Steyn, J, Everitt, N, Andras, P (2014). Low molecular weight Neutral Boron Dipyrromethene (Bodipy) dyads for fluorescence-based neural imaging. Journal of Molecular Structure, 1065-1066: 10-15.

Smith WA, Lam K-P, Dempsey KP, Mazzocchi-Jones D, Richardson JB, Yang Y. 2014. Label free cell tracking in 3-D tissue engineering constructs with high resolution imaging. DYNAMICS AND FLUCTUATIONS IN BIOMEDICAL PHOTONICS XI (vol. 8942).

Dempsey KP, Richardson JB, Lam KP. 2014. On measuring cell confluence in phase contrast microscopy.IMAGING, MANIPULATION, AND ANALYSIS OF BIOMOLECULES, CELLS, AND TISSUES XII (vol. 8947)

Marchi J, Blana D, Chadwick EK. 2014. Glenohumeral stability during a hand-positioning task in previously injured shoulders. Med Biol Eng Comput, т. 52(3), 251-256.

Bolsterlee B, Veeger DH, Chadwick EK. 2013. Clinical applications of musculoskeletal modelling for the shoulder and upper limb. Med Biol Eng Comput, т. 51(9), 953-963.

Blana D, Hincapie JG, Chadwick EK, Kirsch RF. 2013. Selection of muscle and nerve-cuff electrodes for neuroprostheses using customizable musculoskeletal model. J Rehabil Res Dev, т. 50(3), 395-408.

Lam K, Smith WA, Collins DJ, Richardson JB. 2013. On 2.5D Surface Reconstruction of Cell Cultures. In G. Ramponi, S. Loncaric & A. Carini (Eds.). University of Zagreb, Croatia: IEEE Signal Processing Society.

Lam K and Collins DJ. 2013. FACE: Fractal Analysis in Cell Engineering. In K. Elleithy (Ed.). Innovations and Advances in Computer, Information, Systems Sciences, and Engineering Lecture Notes in Electrical Engineering Volume 152, 2013, pp 1151-1164 (vol. 152, pp. 1151-1164). USA: Springer New York.

Lam KP, Dempsy KP, Smith WA, Wright KT, Masri WE, Richardson JB, IEEE. 2013. A Computational Approach to Quantifying Axon Regeneration in the Presence of Mesenchymal Stem Cells (MSCs). 2013 6TH INTERNATIONAL IEEE/EMBS CONFERENCE ON NEURAL ENGINEERING (NER) (pp. 1541-1544)

Städele, C, Andras, P, Stein, W (2012). Simultaneous measurement of membrane potential changes in multiple pattern generating neurons using voltage sensitive dye imaging. Journal of Neuroscience Methods, 203: 78-88.

Kyriacou T. (2012) Using an Evolutionary Algorithm to Determine the Parameters of a Biologically Inspired Model of Head Direction Cells. Journal of Computational Neuroscience, 32:281-295.

Lam K, Smith, WA, Collins, DJ. 2012. FORTHCOMING: Scalable 2-1/2D Reconstruction of Cell Objects. International Journal on Industrial Electronics, Technology and Automation.

Hidalgo-Bastida LA, Thirunavukkarasu S, Griffiths S, Cartmell SH, Naire S. 2012. Modeling and design of optimal flow perfusion bioreactors for tissue engineering applications. BIOTECHNOLOGY AND BIOENGINEERING, т. 109(4), 1095-1099.


4. When was the current connection between CNNs and the visual system made?

Much of the hullabaloo about CNNs in neuroscience today stems from a few studies published in

2014. These studies explicitly compared neural activity recorded from humans and macaques to artificial activity in CNNs when the different systems were shown the same images.

The first is Yamins et al. (2014). This study explored many different CNN architectures to determine what leads to a good ability to predict responses of monkey IT cells. For a given network, a subset of the data was used to train linear regression models that mapped activity in the artificial network to individual IT cell activity. The predictive power on held-out data was used to assess the models. A second method, representational similarity analysis, was also used. This method does not involve direct prediction of neural activity, but rather asks if two systems are representing information the same way. This is done by building a matrix for each system, wherein the values represent how similar the response is for two different inputs. If these matrices look the same for different systems, then they are representing information similarly.

Representational Dissimilarity Matrices for different systems

By both measures, CNNs optimized for object recognition outperformed other models. Furthermore, the 3rd layer of the network better predicted V4 cell activity while the 4th (and final) layer better predicted IT. Indicating a correspondence between model layers and brain areas.

Another finding was that networks that performed better on object recognition also performed better on capturing IT activity, without a need to be directly optimized on IT data. This trend has largely held true for larger and better networks, up to some limits (see Q11).

Later layers of the CNN have a more similar representation to human IT

Another paper, Khaligh-Razavi and Kriegeskorte (2014), also uses representational similarity analysis to compare 37 different models to human and monkey IT. They too found that models better at object recognition better matched IT representations. Furthermore, the deep CNN trained via supervised learning (“AlexNet”) was the best performing and the best match, with later layers in the network performing better than earlier ones.


The Center for Computational Brain Science at Brown’s Carney Institute for Brain Science will harness the University’s expertise in computation, cognition and systems neuroscience toward new brain health solutions.

PROVIDENCE, R.I. [Brown University] — The human brain is a computational organ. It stores a lifetime of memories, recognizes faces in the blink of an eye, learns from experience, plans for the future and communicates fluidly.

To demystify how the brain accomplishes such complex tasks with precision and speed, a new Center for Computational Brain Science at Brown University will harness Brown’s world-class expertise in computational modeling, computer science, cognition and systems neuroscience.

Computational brain science students work in the Carney Institute at 164 Angell Street. Housed within the University’s Carney Institute for Brain Science, the new center was launched in July to create collaborations between basic brain science researchers and engineers, mathematicians and computer scientists, and to bring computational neuroscience innovations to clinical applications and commercialization. The center emanated from the Carney Institute’s Initiative for Computation in Brain and Mind, created in 2012.

Michael Frank — director of the new center and a professor of cognitive, linguistic and psychological sciences — said that computational neuroscience has been a strength at Brown for many years. The center, he said, will enable the University to expand as a hub of computational brain science research, more than an institution home to individual contributors.

“My hope is to go beyond what we’ve already started in this area, to make people a little bit more open minded and to facilitate a deeper understanding of the interconnections among multiple levels of computational brain science,” Frank said. “My vision is that this rich, interactionist approach will give rise to novel innovative applications that can better assess and improve brain health.”

Rigorous, collaborative research

Computational neuroscience is a multidisciplinary field that seeks to understand the functions of the brain at all levels — from cells to cognition — using principles from physics, mathematics, engineering, computer science, biology, cognitive science and psychology.

Some research groups at Brown already conduct research that informs or depends on computational neuroscience. However, the Center for Computational Brain Science will provide a more intentional structure for creating interactions among faculty and their research teams, Frank said.

My hope is to go beyond what we’ve already started in this area, to make people a little bit more open minded and to facilitate a deeper understanding of the interconnections among multiple levels of computational brain science.

“The brain processes information, and you should use the right level of analysis that allows you to characterize that information processing — and how it goes wrong — to better understand what’s going on in affective disorders like anxiety and depression, disorders that involve delusions and hallucinations, and disorders of action and thought like Parkinson’s disease and obsessive compulsive disorder,” Frank said. “Computational brain science is the glue to help understand and connect different levels of analysis. In nature, it’s interdisciplinary.”

Thomas Serre, associate director of the Center for Computational Brain Science, researches the neural computations supporting visual perception. He is trying to determine how the brain solves vision to build machines that can see and interpret the visual world as well as humans do.

Serre’s project builds on 15 years of research developing computational neuroscience models of visual processing in the cortex. The Center for Computational Brain Science will allow Serre to leverage Brown’s expertise in this field while training students and early-career scientists.

“To me, this is all about training the next generation of computational neuroscientists to think across levels of analyses from circuits and networks to systems and computations, and to speak fluently the language of neurobiology, cognitive neuroscience and artificial intelligence,” said Serre, an associate professor of cognitive, linguistic and psychological sciences who also directs Brown’s Center for Computation and Visualization.

Cross-training and commercialization

One signature feature of the Center for Computational Brain Science is its fellows program, designed to enable the advancement of high-risk projects and ideas with the potential for commercialization or broader adoption by the scientific community or by industry. The goal of the program is to bridge the gap from science to application to improve brain health, said Frederike Petzschner, who will join the center this year as the first fellow and will lead the program with Frank.

The program will recruit early-career visionaries for three-year residencies at the Carney Institute. Scientists will include a mix of experts with computational skills — from scholars with expertise in artificial intelligence, machine learning or computational neuroscience, to experts with a focus on specific applications such as detection of neural signatures related to pathology, closed-loop brain stimulation, and impulsivity and suicide-prevention.

“We are recruiting top research scientists from both academia and industry to contribute to meaningful projects at the interface between neuroscience, machine learning and brain disorders,” said Petzschner, a neuroscientist with a background in physics. “The program is unique in that it aims to merge the best of both worlds: A strong academic basis for new discovery with the support and infrastructure typical for industrial settings, including seed funds, professional project management, team support, career development plans, and facilitation and support to build spinoff companies.”

The center will also provide cross-training in computational methods for students, basic scientists and physician-scientists. The center will host a two-week modeling competition workshop in August titled “Computational Cognitive Modeling of Behavioral and Neural Data.” The workshop will include daily lectures and discussions, hands-on coding tutorials and advanced sessions that provide a deeper understanding of complex modeling approaches, pitfalls and concepts.

Frank said the center will also enhance community engagement through hackathons, scientific symposiums and an interactive seminar series featuring world-class computational neuroscientists.

“If I close my eyes and envision what I would like to see when I think of this center, I would like to step into the Innovation Zone and see a group of active students representing different disciplines on campus,” Serre said, referencing the Carney Institute’s shared space for workshops, hackathons, data science challenges and lectures. “I would like to see machine learning and data science students collaborating with the neuroscience and cognitive science students and physicists. That’s my dream: a buzzing Innovation Zone with students collaborating on projects that would be beyond what any one of them in isolation would be able to carry.”