Em formação

A rede neural no cérebro forma ciclos?

A rede neural no cérebro forma ciclos?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Em outras palavras, é possível que o dendrito do neurônio A seja conectado com o axônio do neurônio B e, ao mesmo tempo, o dendrito do neurônio B seja conexões com o axônio do neurônio A (ou da mesma forma para qualquer número maior de neurônios)?

Em caso afirmativo, existem dados estatísticos sobre o número de tais ciclos no cérebro humano médio?


Em geral, as redes neurais são muito menos simples e direcionadas do que as RNAs ou circuitos artificiais - as conexões podem ser inibitórias ou excitatórias, variam amplamente em força etc. etc. Portanto, sem surpresa, sim, a recorrência é observada em redes neurais reais. Não conheço nenhuma estatística sobre a frequência de tais estruturas de rede, ou mesmo se existe. Nosso conhecimento do cérebro neste nível sutil ainda é limitado, eu acho, a tentativa mais global de mapear 'o conectoma' geralmente considera as coisas em uma resolução mais alta.


Rede neural artificial

Redes neurais artificiais (ANNs), geralmente chamado simplesmente de redes neurais (NNs), são sistemas de computação vagamente inspirados nas redes neurais biológicas que constituem os cérebros dos animais.

Uma RNA é baseada em uma coleção de unidades conectadas ou nós chamados neurônios artificiais, que modelam vagamente os neurônios em um cérebro biológico. Cada conexão, como as sinapses em um cérebro biológico, pode transmitir um sinal a outros neurônios. Um neurônio artificial que recebe um sinal, o processa e pode sinalizar os neurônios conectados a ele. O "sinal" em uma conexão é um número real, e a saída de cada neurônio é calculada por alguma função não linear da soma de suas entradas. As conexões são chamadas arestas. Neurônios e bordas normalmente têm um peso que se ajusta à medida que o aprendizado avança. O peso aumenta ou diminui a força do sinal em uma conexão. Os neurônios podem ter um limite de modo que um sinal seja enviado apenas se o sinal agregado cruzar esse limite. Normalmente, os neurônios são agregados em camadas. Camadas diferentes podem realizar transformações diferentes em suas entradas. Os sinais viajam da primeira camada (a camada de entrada) até a última camada (a camada de saída), possivelmente depois de atravessar as camadas várias vezes.


Redes profundas e visão

As redes neurais artificiais são construídas com componentes de interconexão chamados perceptrons, que são modelos digitais simplificados de neurônios biológicos. As redes têm pelo menos duas camadas de perceptrons, uma para a camada de entrada e outra para a saída. Sanduiche uma ou mais camadas “ocultas” entre a entrada e a saída e você obterá uma rede neural “profunda” quanto maior o número de camadas ocultas, mais profunda a rede.

Redes profundas podem ser treinadas para detectar padrões nos dados, como padrões que representam imagens de gatos ou cachorros. O treinamento envolve o uso de um algoritmo para ajustar iterativamente a força das conexões entre os perceptrons, de modo que a rede aprenda a associar uma determinada entrada (os pixels de uma imagem) ao rótulo correto (gato ou cachorro). Uma vez treinada, a rede profunda deve ser idealmente capaz de classificar uma entrada que não tenha visto antes.

Em sua estrutura e função gerais, as redes profundas aspiram vagamente a emular cérebros, nos quais as intensidades ajustadas das conexões entre os neurônios refletem associações aprendidas. Os neurocientistas frequentemente apontam limitações importantes nessa comparação: neurônios individuais podem processar informações mais extensivamente do que perceptrons "burros", por exemplo, e redes profundas frequentemente dependem de um tipo de comunicação entre perceptrons chamada retropropagação que parece não ocorrer nos sistemas nervosos. No entanto, para os neurocientistas computacionais, as redes profundas às vezes parecem ser a melhor opção disponível para modelar partes do cérebro.

Os pesquisadores que desenvolvem modelos computacionais do sistema visual foram influenciados pelo que sabemos do sistema visual dos primatas, particularmente a via responsável por reconhecer pessoas, lugares e coisas chamadas fluxo visual ventral. (Uma via amplamente separada, o fluxo visual dorsal, processa informações para ver o movimento e as posições das coisas.) Em humanos, essa via ventral começa nos olhos e prossegue para o núcleo geniculado lateral no tálamo, uma espécie de estação retransmissora para informação sensorial. O núcleo geniculado lateral se conecta a uma área chamada V1 no córtex visual primário, a jusante da qual estão as áreas V2 e V4, que finalmente levam ao córtex temporal inferior. (Cérebros de primatas não humanos têm estruturas homólogas.)

O insight neurocientífico principal é que o processamento de informações visuais é hierárquico e ocorre em estágios: os estágios anteriores processam características de baixo nível no campo visual (como bordas, contornos, cores e formas), enquanto representações complexas, como objetos inteiros e rostos , surgem apenas mais tarde no córtex temporal inferior.

Essas percepções guiaram o projeto da rede profunda por Yamins e seus colegas. Sua rede profunda tinha camadas ocultas, algumas das quais realizavam uma “convolução” que aplicava o mesmo filtro a todas as partes de uma imagem. Cada convolução capturou diferentes características essenciais da imagem, como bordas. As características mais básicas foram capturadas nos estágios iniciais da rede e as características mais complexas nas fases mais profundas, como no sistema visual dos primatas. Quando uma rede neural convolucional (CNN) como esta é treinada para classificar imagens, ela começa com valores inicializados aleatoriamente para seus filtros e aprende os valores corretos necessários para a tarefa em questão.

A CNN de quatro camadas da equipe pode reconhecer oito categorias de objetos (animais, barcos, carros, cadeiras, rostos, frutas, aviões e mesas) retratados em 5.760 imagens 3D foto-realistas. Os objetos retratados variam muito em pose, posição e escala. Mesmo assim, a rede profunda combinou com o desempenho dos humanos, que são extremamente bons em reconhecer objetos, apesar da variação.

Sem o conhecimento de Yamins, uma revolução em formação no mundo da visão computacional também validaria de forma independente a abordagem que ele e seus colegas estavam adotando. Logo depois que terminaram de construir sua CNN, outra CNN chamada AlexNet fez seu nome em um concurso anual de reconhecimento de imagem. AlexNet, também, foi baseado em uma arquitetura de processamento hierárquico que capturou recursos visuais básicos em seus estágios iniciais e recursos mais complexos em estágios superiores, ele foi treinado em 1,2 milhão de imagens rotuladas apresentando mil categorias de objetos. No concurso de 2012, o AlexNet encaminhou todos os outros algoritmos testados: pelas métricas da competição, a taxa de erro do AlexNet foi de apenas 15,3%, em comparação com 26,2% de seu concorrente mais próximo. Com a vitória da AlexNet, as redes profundas se tornaram concorrentes legítimos no campo de IA e aprendizado de máquina.

Yamins e outros membros da equipe de DiCarlo, no entanto, estavam atrás de uma recompensa neurocientífica. Se sua CNN imitasse um sistema visual, eles se perguntavam, isso poderia prever as respostas neurais a uma nova imagem? Para descobrir, eles primeiro estabeleceram como a atividade em conjuntos de neurônios artificiais em seu CNN correspondia à atividade em quase 300 locais no fluxo visual ventral de dois macacos rhesus.

Em seguida, eles usaram a CNN para prever como esses locais cerebrais reagiriam quando os macacos vissem imagens que não faziam parte do conjunto de dados de treinamento. “Não apenas obtivemos boas previsões ... mas também há um tipo de consistência anatômica”, disse Yamins: As camadas iniciais, intermediárias e tardias da CNN previram o comportamento das áreas cerebrais iniciais, intermediárias e superiores, respectivamente . A forma seguiu a função.

Kanwisher lembra de ter ficado impressionado com o resultado quando foi publicado em 2014. “Não diz que as unidades na rede profunda individualmente se comportam como neurônios biofisicamente”, disse ela. “No entanto, há uma especificidade chocante na correspondência funcional.”


Como o cérebro muda ao dominar uma nova habilidade

Dominar uma nova habilidade - seja um esporte, um instrumento ou um ofício - requer tempo e treinamento. Embora se saiba que um cérebro saudável é capaz de aprender essas novas habilidades, como o cérebro muda para desenvolver novos comportamentos é um mistério relativo. Um conhecimento mais preciso desse circuito neural subjacente pode, eventualmente, melhorar a qualidade de vida de indivíduos que sofreram lesão cerebral, permitindo-lhes reaprender com mais facilidade as tarefas cotidianas.

Pesquisadores da Universidade de Pittsburgh e da Carnegie Mellon University publicaram recentemente um artigo em PNAS que revela o que acontece no cérebro à medida que os alunos passam de novatos a especialistas. Eles descobriram que novos padrões de atividade neural emergem com o aprendizado de longo prazo e estabeleceram uma ligação causal entre esses padrões e novas habilidades comportamentais.

A pesquisa foi realizada como parte do Centro de Base Neural da Cognição, um programa de pesquisa e educação interinstitucional que alavanca os pontos fortes de Pitt em neurociência básica e clínica e bioengenharia, com os de CMU em neurociência cognitiva e computacional.

O projeto foi orientado em conjunto por Aaron Batista, professor associado de bioengenharia da Pitt Byron Yu, professor associado de engenharia elétrica e da computação e engenharia biomédica da CMU e Steven Chase, professor associado de engenharia biomédica e do Instituto de Neurociências da CMU. O trabalho foi liderado por Pitt, associada ao pós-doutorado em bioengenharia, Emily Oby.

"Usamos uma interface cérebro-computador (BCI), que cria uma conexão direta entre a atividade neural do nosso sujeito e o movimento do cursor do computador", disse Oby. "Registramos a atividade de cerca de 90 unidades neurais na região do braço do córtex motor primário dos macacos Rhesus enquanto eles realizavam uma tarefa que exigia que eles movessem o cursor para se alinhar com os alvos no monitor."

Para determinar se os macacos formariam novos padrões neurais à medida que aprendiam, o grupo de pesquisa encorajou os animais a tentar uma nova habilidade BCI e então comparou essas gravações aos padrões neurais pré-existentes.

"Primeiro apresentamos ao macaco o que chamamos de 'mapeamento intuitivo' de sua atividade neural até o cursor que funcionava com a forma como seus neurônios disparavam naturalmente e que não exigia nenhum aprendizado", disse Oby. "Em seguida, induzimos o aprendizado, introduzindo uma habilidade na forma de um novo mapeamento que exigia que o sujeito aprendesse quais padrões neurais eles precisam produzir para mover o cursor."

Como aprender a maioria das habilidades, a tarefa BCI do grupo exigiu várias sessões de prática e um pouco de treinamento ao longo do caminho.

“Descobrimos que depois de uma semana, nosso sujeito conseguia aprender a controlar o cursor”, disse Batista. "Isso é impressionante porque, por construção, sabíamos desde o início que eles não tinham os padrões de atividade neural necessários para realizar essa habilidade. Com certeza, quando olhamos para a atividade neural novamente após aprendermos, vimos que novos padrões de atividade neural tinham apareceu, e esses novos padrões são o que permitiu ao macaco realizar a tarefa. "

Essas descobertas sugerem que o processo para os humanos dominarem uma nova habilidade também pode envolver a geração de novos padrões de atividade neural.

"Embora estejamos olhando para essa tarefa específica em animais, acreditamos que talvez seja assim que o cérebro aprende muitas coisas novas", disse Yu. "Considere aprender a destreza dos dedos necessária para tocar uma peça complexa no piano. Antes da prática, seu cérebro pode ainda não ser capaz de gerar os padrões de atividade apropriados para produzir os movimentos desejados dos dedos."

"Achamos que a prática estendida constrói uma nova conectividade sináptica que leva diretamente ao desenvolvimento de novos padrões de atividade que permitem novas habilidades", disse Chase. "Achamos que este trabalho se aplica a qualquer pessoa que queira aprender - seja um indivíduo paralisado aprendendo a usar uma interface cérebro-computador ou um sobrevivente de derrame que deseja recuperar a função motora normal. Se pudermos olhar diretamente para o cérebro durante o funcionamento motor aprendizagem, acreditamos que podemos projetar estratégias de neurofeedback que facilitam o processo que leva à formação de novos padrões de atividade neural. "


A Rede do Cérebro Conduz Mudanças na Consciência

Resumo: Uma rede cerebral que consiste no tálamo, córtex cingulado anterior e posterior e giros angulares estava implicada na perda e no retorno da consciência sob anestesia e durante o sono natural.

Fonte: SfN

A perda e o retorno da consciência estão ligados à mesma rede de regiões cerebrais tanto para o sono quanto para a anestesia, de acordo com uma nova pesquisa publicada em Journal of Neuroscience.

A base biológica da consciência confundiu os cientistas durante séculos. Nossas técnicas experimentais vacilam, à medida que os efeitos do sono e das drogas anestésicas alteram a atividade cerebral além das mudanças na consciência.

Além disso, o comportamento nem sempre revela o estado de consciência de alguém. Uma pessoa que não responde pode ainda estar ciente do que está ao seu redor (conectada) ou inconsciente, mas ainda experimentando seu mundo interno (desconectada).

Scheinin et al. procurou redes associadas à consciência humana medindo a atividade cerebral de homens adultos com PET enquanto eles adormeciam e eram anestesiados. A equipe de pesquisa acordou os participantes no meio do experimento para entrevistá-los e confirmar seu estado de conexão.

Diferenças na atividade cerebral entre estados conectados e desconectados de consciência estudados com imagens de tomografia por emissão de pósitrons (PET). A atividade do tálamo, córtex cingulado anterior (ACC) e posterior (PCC) e giro angular bilateral (GA) mostram as associações mais consistentes com o estado de consciência (A = anestesia geral, B = sono). As mesmas estruturas cerebrais, que são desativadas quando o estado de consciência muda para desconectado na anestesia geral ou no sono natural (cores frias nas colunas da esquerda), são reativadas ao recuperar um estado conectado após a emergência da anestesia (cores quentes nas colunas da direita) . Crédito: Scheinin et al., JNeurosci 2020

As mudanças na conexão correspondiam à atividade de uma rede composta por regiões profundas do cérebro: o tálamo, o córtex cingulado anterior e posterior e os giros angulares. Essas regiões exibiram menos fluxo sanguíneo quando um participante perdia a conexão e mais fluxo sanguíneo quando o recuperava.

O padrão se manteve verdadeiro tanto para o sono quanto para a anestesia, indicando que as mudanças corresponderam à conexão em vez dos efeitos do sono ou das drogas, e que a rede pode ser imperativa para a consciência humana.

Sobre essas notícias de pesquisa de consciência

Fonte: SfN
Contato: Calli McMurray & # 8211 SfN
Imagem: A imagem é creditada a Scheinin et al., JNeurosci 2020

Pesquisa original: Acesso fechado.
& # 8220Foundations of Human Consciousness: Imaging the Twilight Zone & # 8221 por Annalotta Scheinin, Oskari Kantonen, Michael Alkire, Jaakko Långsjö, Roosa E Kallionpää, Kaike Kaisti, Linda Radek, Jarklko Johansson, Jarklko Johansson, Scheilsen Miyakov, Vaklko Johansson, Scheilsen Miksson, Vaklko Terika Terika Mika , Antti Revonsuo, Katja Valliand Harry Scheinin. Journal of Neuroscience

Como o seu cérebro processa as emoções? A resposta pode ajudar a resolver a epidemia de solidão

Fundamentos da Consciência Humana: Imaginando a Twilight Zone

O que acontece no cérebro quando a percepção consciente do mundo ao redor desaparece? Nós manipulamos a consciência em dois experimentos em um grupo de homens saudáveis ​​e medimos a atividade cerebral com tomografia por emissão de pósitrons. As medições foram feitas durante a vigília, níveis crescentes e constantes de dois agentes anestésicos (Experiência 1, n = 39) e durante a vigília privada de sono e sono de movimento ocular não rápido (Experiência 2, n = 37). No Experimento 1, os indivíduos foram randomizados para receber propofol ou dexmedetomidina até a ausência de resposta. Em ambos os experimentos, o despertar forçado foi aplicado para obter uma rápida recuperação de um estado sem resposta para um estado responsivo, seguido por entrevistas imediatas e detalhadas de experiências subjetivas durante a condição sem resposta anterior. A falta de resposta raramente denotava inconsciência, pois a maioria dos sujeitos tinha experiências geradas internamente. Estados anestésicos sem resposta e estágios de sono verificados, em que um relatório subsequente de conteúdo mental não incluía sinais de consciência do mundo ao redor, indicavam um estado desconectado. Imagens funcionais do cérebro comparando responsivo e conectado vs.estados de consciência não responsivos e desconectados durante a exposição constante ao anestésico revelaram que a atividade do tálamo, córtex cingulado e giro angular são fundamentais para a consciência humana. Essas estruturas cerebrais foram afetadas independentemente do agente farmacológico, da concentração do fármaco e da direção da mudança no estado de consciência. Achados análogos foram obtidos quando a consciência foi regulada pelo sono fisiológico. As descobertas específicas do estado foram distintas e separáveis ​​dos efeitos gerais das intervenções, que incluíram depressão generalizada da atividade cerebral em áreas corticais. Essas descobertas identificam uma rede central do cérebro, crítica para a consciência humana.

DECLARAÇÃO DE SIGNIFICADO

Tentar entender a base biológica da consciência humana é atualmente um dos maiores desafios da neurociência. Enquanto a perda e o retorno da consciência regulados por drogas anestésicas e sono fisiológico são empregados como sistemas modelo em estudos experimentais sobre a consciência, os resultados de pesquisas anteriores foram confundidos pelos efeitos das drogas, por confundir "indiferença" comportamental e consciência gerada internamente, e por comparação do cérebro níveis de atividade entre estados que diferem em vários outros aspectos além de apenas consciência. Aqui, apresentamos estudos cuidadosamente projetados que superam muitos confundidores anteriores e pela primeira vez revelam os mecanismos neurais subjacentes à consciência humana e sua desconexão da capacidade de resposta comportamental, tanto durante a anestesia quanto durante o sono normal, e nos mesmos sujeitos de estudo.


Noções básicas de rede neural

Antes de podermos trabalhar com redes neurais convolucionais, primeiro precisamos entender os fundamentos das redes neurais. Vamos revisar:

• Redes Neurais Artificiais e sua relação com a biologia.
• O algoritmo seminal do Perceptron.
• O algoritmo de retropropagação e como ele pode ser usado para treinar multicamada redes neurais de forma eficiente.
• Como treinar redes neurais usando a biblioteca Keras.

Quando terminar, você terá um forte conhecimento de redes neurais e será capaz de avançar para as redes neurais convolucionais mais avançadas.


Pesquisa em processamento de sensores (1960 e 1970 & # x27s)

Dr. Hubel e Dr. Wiesel trabalharam na área de Processamento Sensorial. No qual, eles inseriram um microeletrodo no primário córtex visual de um gato parcialmente anestesiado de modo que ela não pode se mover e mostrou as imagens de linhas em ângulos diferentes para o gato.

Por meio do microeletrodo, eles descobriram que alguns neurônios disparavam muito rapidamente observando as linhas em ângulos específicos, enquanto outros neurônios respondiam melhor às linhas em ângulos diferentes. Alguns desses neurônios responderam aos padrões claro e escuro de forma diferente, enquanto outros neurônios responderam para detectar movimento em determinada direção.

Este trabalho é primordial para o conceito de CNN.

Onde está localizado o córtex visual no cérebro humano?

O córtex visual é a parte do córtex cerebral que processa a informação visual. Os nervos visuais dos olhos vão direto para o córtex visual primário. Com base nas características estruturais e funcionais está dividido em diferentes áreas, conforme mostrado na figura a seguir:

Visual Cortex: Funções

A informação visual é passada de uma área cortical para outra e cada área cortical é mais especializada que a última. Os neurônios no campo específico respondem apenas às ações específicas.

Alguns deles com suas funções são os seguintes:

  1. Córtex visual primário ou V1: preserva a localização espacial das informações visuais, ou seja, a orientação de bordas e linhas. É o primeiro a receber os sinais do que os olhos captaram.
  2. Córtex Visual Secundário ou V2: Ele recebe conexões fortes de alimentação de V1 e envia conexões fortes para V3, V4 e V5. Ele também envia uma rede de feedback forte para V1. Sua função é coletar frequência espacial, tamanho, cor e forma do objeto.
  3. Terceiro Córtex Visual ou V3: Recebe entradas de V2. Ajuda no processamento do movimento global e oferece uma representação visual completa.
  4. V4: também recebe entradas de V2. Ele reconhece formas geométricas simples e também reconhece formas de objetos. Não é ajustado para objetos complexos como Faces Humanas.
  5. Área Visual Temporal Média (MT) ou V5: É usada para detectar a velocidade e direção do objeto visual em movimento, ou seja, percepção de movimento. Ele também detecta o movimento de recursos visuais complexos. Ele recebe conexões diretas de V1.
  6. Área dorsomedial (DM) ou V6: usada para detectar campo amplo e estimulação de movimento automático. Como o V5, ele também recebe conexões diretas de V1. Possui seleção extremamente precisa da orientação dos contornos visuais.

Mapeamento para CNN

O córtex visual acima atua como camadas da CNN. Vamos considerar cenários como detecção de bordas, detecção de rosto, detecção de variação (ou seja, detecção de rosto girado, detecção de rosto grande ou pequeno)

Detecção de Borda: Usando a operação de convolução na imagem com Sobel Kernel podemos detectar as bordas. Observe a seguinte imagem:

Max Pooling : É usado para detectar onde os objetos estão localizados na imagem com base na saída de cada cluster de neurônios na camada anterior. Como o rosto é detectado onde quer que esteja, não depende da localização do rosto na imagem.

ReLU (Unidade Linear Retificada): Como o cérebro humano nunca para de aprender, ele (o cérebro) sempre aprende com as observações e experiências, ou seja, as entradas que recebe dos órgãos sensoriais são utilizadas em algum ou outro ponto, mas o aprendizado nunca se torna "Zero". Para adicionar esse recurso às redes neurais, ReLU é usado. A função de ativação é: f (x) = max (0, x). Para qualquer função de ativação, devemos ser capazes de obter a derivada dessa função e com ReLU podemos fazer isso. Mas a derivada em zero não é definida para o ReLU. Devido ao zero, podemos ter o problema de estado de ativação morta. Isso significa que não haverá mudança de peso, o que significa que não haverá aprendizagem. Mas em humanos isso não acontece com frequência. Para resolver este problema, o conceito de Leaky ReLU é usado.

Leaky ReLU: A função é: f (x) = if (x & gt 0) then x else 0,01 * x. Com isso, evitamos o problema dos estados mortos. Essa é a rede pode continuar a aprender, mas pode enfrentar o problema do gradiente de desaparecimento.

Aumento de dados: Nós, humanos, podemos reconhecer o rosto mesmo se ele estiver invertido, girado, virado, refletido ou enviesado. Usando a técnica de aumento de dados, podemos converter uma única imagem em diferentes tipos de imagem e usar as imagens recém-formadas para treinar o CNN. Depois disso, o CNN será capaz de detectar dados baseados em variação, como faces giradas, faces grandes e pequenas, faces invertidas, etc. (ou seja, os objetos serão reconhecidos mesmo se não estiverem em sua posição original).

Desistências : Todos os neurônios presentes em nosso cérebro disparam para aprender alguma coisa? A resposta é NÃO''. Não é necessário que eles disparem de forma linear ou em retropropagação. Alguns dos neurônios podem permanecer inativos em uma fase de aprendizagem e podem se tornar ativos em outra fase de aprendizagem ou vice-versa. Isso dá aos neurônios a capacidade de aprendizado independente. Para ter isso nas redes, é introduzido o conceito de evasão. Depois de aplicar o abandono com a probabilidade p, os nodos / neurônios individuais selecionados aleatoriamente são eliminados dessa época para o processo de aprendizagem e as respectivas bordas de entrada e saída também são eliminadas. É muito utilizado para evitar o sobreajuste na rede.

Rede Residual (ResNet): Como vimos, V5 e V6 recebem conexões diretas de V1 da mesma forma que a Rede Residual funciona. Ele pula conexões e / ou salta sobre as camadas. Isso é feito para evitar o problema de gradiente de desaparecimento.


A Primer: Artificial Intelligence Versus Neural Networks

Jef Akst
1 ° de maio de 2019

ACIMA: MODIFICADO EM © ISTOCK.COM, Bannosuke

O termo “inteligência artificial” data de meados da década de 1950, quando o matemático John McCarthy, amplamente conhecido como o pai da IA, o usou para descrever máquinas que fazem coisas que as pessoas poderiam considerar inteligentes. Ele e Marvin Minsky, cujo trabalho foi igualmente influente no campo da IA, organizaram o Projeto de Pesquisa de Verão de Dartmouth sobre Inteligência Artificial em 1956. Alguns anos depois, com McCarthy no corpo docente, o MIT fundou seu Projeto de Inteligência Artificial, mais tarde o Laboratório de IA . Ele se fundiu com o Laboratório de Ciência da Computação (LCS) em 2003 e foi renomeado para Laboratório de Ciência da Computação e Inteligência Artificial, ou CSAIL.

Agora uma parte onipresente da sociedade moderna, a IA se refere a qualquer máquina que é capaz de replicar as habilidades cognitivas humanas, como a resolução de problemas. Ao longo da segunda metade do século 20, o aprendizado de máquina surgiu como uma abordagem de IA poderosa que permite aos computadores, como o nome indica, aprender com os dados de entrada sem ter que ser programados explicitamente. Uma técnica usada no aprendizado de máquina é uma rede neural, que se inspira na biologia do cérebro, retransmitindo informações entre as camadas dos chamados neurônios artificiais. A primeira rede neural artificial foi criada por Minsky como um estudante de graduação em 1951 (veja “Máquina de Aprendizagem, 1951”), mas a abordagem foi limitada no início, e até o próprio Minsky logo voltou seu foco para outras abordagens para a criação de máquinas inteligentes. Nos últimos anos, as redes neurais voltaram, principalmente para uma forma de aprendizado de máquina chamada aprendizado profundo, que pode usar redes neurais complexas e muito grandes.


Métodos modernos em química de produtos naturais

Yi-Ping Phoebe Chen,. Paolo Carloni, em Comprehensive Natural Products II, 2010

9.15.3.2.2 Redes neurais

As redes neurais são sistemas de processamento de informação paralelos e distribuídos que são inspirados e derivados de sistemas de aprendizagem biológica, como o cérebro humano. A arquitetura de redes neurais consiste em uma rede de elementos de processamento de informação não linear que normalmente são organizados em camadas e executados em paralelo. Esse arranjo em camadas da rede é conhecido como topologia de uma rede neural. Esses elementos de processamento de informações não lineares na rede são definidos como neurônios, e as interconexões entre esses neurônios na rede são chamadas de sinapses ou pesos. Um algoritmo de aprendizagem deve ser usado para treinar uma rede neural para que ela possa processar informações de uma forma útil e significativa.

A maioria das redes neurais é treinada com algoritmos de treinamento supervisionado. Isso significa que a saída desejada deve ser fornecida para cada entrada usada no treinamento. Em outras palavras, tanto as entradas quanto as saídas são conhecidas. No treinamento supervisionado, uma rede processa as entradas e compara suas saídas reais com as saídas esperadas. Os erros são propagados de volta pela rede e os pesos que controlam a rede são ajustados em relação aos erros propagados de volta. Este processo se repete até que os erros sejam minimizados, isso significa que o mesmo conjunto de dados é processado várias vezes à medida que os pesos entre as camadas da rede são refinados durante o treinamento da rede. Este algoritmo de aprendizado supervisionado é freqüentemente referido como um algoritmo de retropropagação, que é útil para treinar redes neurais preceptrônicas de múltiplas camadas (MLPs). Figura 6 demonstra a arquitetura de uma rede neural supervisionada, que inclui três camadas, a saber, camada de entrada, camada de saída e uma camada intermediária oculta.

Figura 6. Uma amostra de estrutura de rede neural supervisionada.

As redes neurais são usadas em uma ampla variedade de aplicações em classificação de padrões, processamento de linguagem, modelagem de sistemas complexos, controle, otimização e previsão. 92 Redes neurais também têm sido ativamente usadas em muitas aplicações de bioinformática, como predição de sequência de DNA, predição de estrutura secundária de proteínas, classificação de perfis de expressão gênica e análise de padrões de expressão gênica. 93 A rede neural tem sido amplamente aplicada na biologia desde a década de 1980. 94 Por exemplo, Stormo et al. 95 relataram a previsão dos locais de iniciação da tradução em sequências de DNA. Baldi e Brunak 96 usaram aplicações em biologia para explicar a teoria das redes neurais. Os conceitos de rede neural usados ​​na classificação de padrões e processamento de sinais têm sido aplicados com sucesso em bioinformática. Wu et al. 93,97-99 aplicou as redes neurais para classificar as sequências de proteínas. Wang et al. 100 redes neurais aplicadas à classificação de sequência de proteínas extraindo recursos dos dados de proteínas e usando-os em combinação com a rede neural Bayesiana (BNN). Qian e Sejnowski 101 previram a estrutura secundária da proteína usando redes neurais. Redes neurais também têm sido aplicadas à análise de padrões de expressão gênica como uma alternativa aos métodos de agrupamento hierárquico. 75, 100, 102, 103 Narayanan et al. 104 demonstrou a aplicação das redes neurais de camada única para analisar a expressão gênica.

Além de SVMs e redes neurais, também existem métodos de aprendizagem de máquina para seleção de genes, como 'análise discriminar', que distingue um conjunto de dados selecionado do resto dos dados, e 'algoritmo k-vizinho mais próximo (KNN)', que é baseado em uma função de distância para pares de observações, como a distância euclidiana. Nesta hipótese de classificação, k vizinhos mais próximos de um conjunto de dados de treinamento são calculados. As semelhanças de uma amostra de dados de teste com o KNN são então agregadas de acordo com a classe dos vizinhos, e a amostra de teste é atribuída à classe mais semelhante. Uma das vantagens do KNN é que ele é adequado para classes multimodais, pois sua decisão de classificação é baseada em uma pequena vizinhança de objetos semelhantes. Portanto, mesmo que a classe de destino consista em objetos cujas variáveis ​​independentes tenham características diferentes para diferentes subconjuntos (multimodais), ela ainda pode levar a uma boa precisão. Uma grande desvantagem da medida de similaridade usada no KNN é que ela usa todos os recursos igualmente para calcular similaridades. Isso pode levar a medidas de similaridade pobres e erros de classificação, quando apenas um pequeno subconjunto dos recursos é útil para a classificação. Li et al. 105 usou com sucesso uma abordagem que combina um algoritmo genético (GA) e o método KNN para identificar genes que podem discriminar conjuntamente entre diferentes classes de amostras.


Limites de Aprendizagem

O número de padrões diferentes que uma rede de neurônios pode aprender é determinado pelo número de neurônios e conexões. Essa rede muito pequena pode aprender apenas 2 ou 3 padrões distintos antes de começar a se confundir. Se você tentar ensinar 4 ou 5 padrões, ele freqüentemente lembrará o padrão errado, ou mesmo um padrão espúrio que você nunca o ensinou. That's where the enormous complexity of the brain comes in your brain has at least five billion times as many connections as this little program, so your ability to learn and remember is correspondingly greater.

But like a singing dog, it's not how well it sings but the fact it sings at all. With less than 250 lines of BASIC, we can make the Commodore 64 play the brain's game, pattern recognition, the brain's way, by simulating a neuron network. It can learn simply by being shown patterns and recall a similar pattern when shown something it's never seen before. Research into neuron networks is one of the most exciting and rapidly expanding fields in science today, bringing together computer science, psychology, mathematics, and biology to discover how the brain accomplishes the remarkable things it does. This research may lead to computers that can recognize faces, understand speech, and answer complicated questions. But more importantly, we may find answers to questions as old as mankind: &ldquoWhat is thought?&rdquo, &ldquoWhat is memory?&rdquo, and &ldquoHow do people reason?&rdquo. That your home computer can help you understand and experiment with such matters is testimony to the power latent within it.