Manufaturação industrial
Internet das coisas industrial | Materiais industriais | Manutenção e reparo de equipamentos | Programação industrial |
home  MfgRobots >> Manufaturação industrial >  >> Industrial Internet of Things >> Tecnologia da Internet das Coisas

Tecnologias convergentes permitem Elasticsearch em escala de bilhões


A convergência digital está acontecendo ao nosso redor, à medida que tecnologias que originalmente não eram relacionadas se unem de maneiras novas e estimulantes. O iPhone é um exemplo perfeito, combinando um telefone com um computador, uma câmera e sensores para oferecer uma experiência incrível.

A convergência não é nova no espaço incorporado. Dispositivos embarcados tradicionalmente estão sujeitos a restrições mais severas de memória e processamento e abraçaram a convergência como uma forma de obter o melhor de muitas áreas tecnológicas. Portanto, como estamos apenas no início da convergência de tecnologias de diferentes escalas, com tecnologias aparentemente díspares prometendo se unir para desestabilizar as indústrias existentes e inaugurar novas oportunidades atraentes, o espaço incorporado também será beneficiado. Uma nova convergência é o uso do vizinho mais próximo k-NN (k-NN) com processamento de aceleração na memória para fornecer respostas quase em tempo real para operações Elasticsearch em bilhões de escalas.

Elasticsearch é um mecanismo de pesquisa que recebe solicitações JSON para pesquisas de documentos e fornece dados JSON como resultados. O formato de dados Elasticsearch é um documento com dados estruturados codificados em JSON. O Elasticsearch começou como um mecanismo de busca de texto, mas o banco de dados pode cobrir qualquer tipo de dados, com cada documento tendo um ID único e um tipo de dados.

Como a estrutura é “livre de esquemas”, ela permite que os documentos sejam definidos de acordo com as necessidades do usuário. Exemplos de documentos em bancos de dados Elasticsearch incluem:

Elasticsearch foi projetado para ser distribuído. É escalonável em infraestrutura e flexível para servidor local, servidor remoto ou operação baseada em nuvem. Graças à sua estrutura de API aberta e tranquila, o mecanismo de busca extensível pode ser usado facilmente com plug-ins. Um desses plugins é da GSI Technology, que oferece uma série de benefícios, incluindo k-NN acelerado por hardware, o uso de vetores para pesquisa multimodal e resultados de pontuação combinados.

Elasticsearch depende de seu suporte de computação distribuída para escalabilidade, e suas velocidades incríveis são da ordem de segundos para buscas em um milhão de bancos de dados. Por causa de sua natureza distribuída e suporte a sharding, Elasticsearch permite a duplicação de dados, paralelizando a pesquisa e acelerando-a para bancos de dados maiores. A funcionalidade distribuída que vem da postagem do comando HTTP também permite que várias pesquisas de diferentes resoluções sejam feitas por um dispositivo integrado - uma em recursos locais e outra enviada para recursos upstream.

O Core Elasticsearch usa uma correspondência exaustiva computacionalmente pesada (corresponder a todos), o que diminui a velocidade ou torna muito caro em hardware duplicado para dar suporte à pesquisa de banco de dados em grande escala. Uma técnica que pode ser usada para aumentar o tamanho do banco de dados é a pesquisa k-NN. Ele funciona primeiro procurando por semelhanças em agrupamentos comuns e, em seguida, fazendo a pesquisa final dentro desses um ou mais agrupamentos. Essa técnica também permite que grandes pesquisas de banco de dados sejam feitas em servidores de ponta, em vez de farms de computação baseados em nuvem para aplicativos muito sensíveis à latência.

Abordagem computacionalmente desafiadora

Embora k-NN forneça uma metodologia para que o Elasticsearch ofereça suporte a bancos de dados muito grandes, como aqueles com entradas em escala de bilhões e acima, ele é exaustivo em termos de computação. Como resultado, o k-NN tem sido um desafio para acelerar devido à restrição de mover os bancos de dados entre núcleos de GPU ou CPU.

Uma das maiores limitações para a aceleração da carga de trabalho é a limitação na troca de dados necessária entre os processadores e a memória. Uma grande desvantagem da arquitetura Von Neumann usada em processadores modernos é a sobrecarga de transferência de dados entre os processadores e o armazenamento. A CPU deve sair e buscar dados para cada operação que fizer.

Essa arquitetura é ainda mais ineficiente em um ambiente de aceleração de descarregamento. O desempenho de tais sistemas é limitado pela velocidade na qual os dados podem ser trocados via memória pelo host que solicita as operações e também por mecanismos de computação que executam as operações.

Arquiteturas que reduzem o fluxo de dados da memória estão sendo estudadas para ajudar a aliviar o gargalo de Von Neumann. No entanto, o gargalo é particularmente flagrante ao lidar com aplicativos de inteligência artificial com uso intensivo de memória. A operação de aplicativos relacionados à IA depende do movimento rápido e eficiente de grandes quantidades de dados na memória. Os bancos de dados treinados precisam ser carregados na memória de trabalho e nas consultas de entrada vetorizadas. Em seguida, eles precisam ser processados ​​e carregados para que as funções de comparação funcionem.

Uma tecnologia comprovada que já tem impacto no mercado é a Unidade de Processamento Associativo (APU). A beleza da aceleração na memória é que o próprio armazenamento se torna o processador. Este não é um array massivo de núcleos de processamento com memória cache por perto, mas sim um array de memória com unidades de computação embutidas na arquitetura de linha de leitura.

Assim, o APU é diferenciado por ter a matriz de memória capaz de acelerar a computação. Este tipo de processador “acelerado” acelera o desempenho em ordens de magnitude enquanto reduz o consumo de energia da carga de trabalho de servidores padrão.

A convergência de Elasticsearch, k-NN e aceleração de APU fornece menos latência e mais consultas por segundo. Também torna possível fornecer suporte para pesquisa de banco de dados em escala de bilhões com menos energia do que a CPU tradicional apenas ou sistemas acelerados por GPU. No espaço embutido, o Elasticsearch pode fornecer um meio de fazer uma pesquisa local em um dispositivo de ponta enquanto, simultaneamente, envia uma solicitação HTTP para uma pesquisa mais profunda na rede. Resultados variáveis ​​podem ser combinados para uma resposta cada vez mais precisa ou apenas novas exceções podem ser incorporadas.

Um dispositivo de ponta extremo pode aplicar seus recursos de CPU para fazer uma pesquisa em um banco de dados localmente pertinente para velocidade. Então, o uso do multiplicador de densidade de APU permite que as solicitações de rede do Elasticsearch sejam executadas com eficiência em um servidor de borda ou agregador em vez de serem enviadas para a nuvem. Considere robôs que podem tomar decisões autônomas, mas ainda obter validação de backup ou correções de curso de uma pesquisa mais profunda upstream. Considere veículos automatizados que tomam decisões imediatas com base em um conjunto de regras e condições locais, enquanto enviam informações por meio de portais de sinalização de rodovias e obtêm informações de trânsito e instruções de direção devolvidas.

No futuro, será emocionante ver as novas oportunidades que essa convergência possibilitará.

Tecnologia da Internet das Coisas

  1. A Quarta Revolução Industrial
  2. Tecnologias convergentes permitem Elasticsearch em escala de bilhões
  3. Democratizando a IoT
  4. 5 Tendências em conectividade
  5. As 10 principais plataformas IIoT
  6. O futuro dos data centers
  7. As quatro tecnologias que moldam as cadeias de suprimentos da próxima geração
  8. Reflexões sobre tecnologias emergentes, Edge e IoT
  9. Tecnologias da indústria 4.0:dicas para desenvolver sua estratégia digital
  10. Tecnologias emergentes da indústria 4.0 com exemplos do mundo real