Citizen Data Scientist, já estamos lá?

A Inteligência Artificial é um campo que captura a imaginação na imprensa e no domínio público, com uma visão de máquinas que nos apoiam no dia a dia. Mas até que ponto estamos perto disso na vida cotidiana dos negócios? A resposta é muito próxima, mas com um passo chave intermediário. Em 2016, o Gartner cunhou o termo “Citizen Data Scientist” (CDS), significando uma pessoa “que cria ou gera modelos que usam análise avançada de diagnóstico ou recursos preditivos e prescritivos, mas cuja função principal de trabalho está fora do campo de estatística e análise. O Gartner também previu que o CDS ultrapassará os cientistas de dados na quantidade de análises avançadas que eles produzem, até 2019. Até recentemente essa previsão parecia imprecisa, mesmo que apenas pela data, não pelo resultado. No entanto, o recente anúncio do Google sobre o lançamento do Beta-Stage de sua plataforma AutoML, e a publicidade subsequente, reacendeu a discussão sobre a futura mudança para um ambiente de CDS. Essencialmente, o AutoML fornece um algoritmo de aprendizado de máquina ideal para usos comerciais específicos. Tudo o que o usuário precisa fornecer são dados rotulados; dados com um resultado que o algoritmo pode usar para aprender. Nenhum conhecimento de ciência de dados é necessário. O AutoML está atualmente focado na classificação de imagens e tradução de linguagem natural, mas os planos para expandir a capacidade para outros tipos de problemas de negócios estão bem encaminhados. Não há dúvida de que a previsão do Gartner acabará se concretizando, e pode haver pessoas lendo este artigo, que já estão empolgadas com o uso da IA ​​para apoiar seu trabalho; capacidade de desbloqueio que atualmente reside apenas no domínio dos cientistas de dados, em suas vidas comerciais cotidianas. Aí reside um problema com o conceito de CDS: expectativa. Ainda estamos nos primeiros dias de progresso em direção ao CDS, e o foco atual está muito no domínio de tarefas fixas e repetitivas. No entanto, a expectativa do usuário provavelmente superará rápida e amplamente a capacidade, pelo menos a curto prazo. Os usuários corporativos geralmente desejam estender soluções fornecendo dados diferentes ou usando-os para diferentes tipos de decisões. Isso está bem dentro dos limites das soluções e das tecnologias subjacentes, mas pode exigir o suporte de cientistas especialistas em dados, pois os limites são esticados e novos dados exigem configuração. O conceito de aprendizado de máquina tem muitas facetas diferentes, e o que funciona para um tipo de problema de negócios pode não funcionar para outro. Por exemplo, a quantidade de dados e o período de tempo que os dados exigem para “aprender” um problema podem diferir entre problemas que, na primeira revisão, parecem muito semelhantes. Um usuário empresarial pode aprender isso por meio de tentativa e erro, mas é muito mais produtivo, para o usuário e seus negócios, obter a experiência de um cientista de dados para definir a estratégia de treinamento correta. Ideação, a formação de novas idéias ou conceitos, é o maior objetivo e, paradoxalmente, o maior desafio para o conceito de CDS. Pense em dar a alguém um carro esportivo novo e brilhante e, em seguida, dizer-lhes que eles só podem levá-lo para o trabalho, em vez de explorar o país. O motorista pode tentar encontrar a rota mais interessante e diversificada para o trabalho, mas eles ainda chegam no mesmo lugar. Como a jornada em direção ao CDS se desdobrará? Indubitavelmente, a longo prazo, as soluções se tornarão mais flexíveis e dinâmicas para realizar a definição completa do CDS. No curto prazo, no entanto, exigimos que os cientistas de dados se envolvam ativamente e apoiem o CDS em desenvolvimento dentro do negócio. O instrutor de condução para ajudar o motorista a usar o carro esportivo em estradas rurais. Assim, pelo menos a curto prazo, precisamos expandir nossa definição de ciência de dados para pensar em ciência de dados como um serviço, essencialmente “Conhecimento como um Serviço”, como um próximo passo crítico no caminho para o verdadeiro Cientista de Dados Cidadão. Fonte: insideBIGDATA]]>

Os benefícios de aprender algoritmos

Os algoritmos estão por toda parte, envolvidos em cada aspecto da Ciência da Computação. Eles também são usados em uma ampla gama de campos, como recomendações, social media, medicina, psicologia, transporte… e a lista vai longe! Qualquer coisa que fazemos pode ser dividido em pequenos passos e essa é a essência de um algoritmo. Imagine que você acordar de manhã para ir ao trabalho e você não consegue se lembrar onde estão as chaves do carro. Como você as encontraria? Uma abordagem pode ser aplicar um algoritmo, que é um procedimento lógico passo-a-passo. Primeiro, procuramos em lugares onde costumamos colocá-los. Tentamos nos lembrar da última vez que as usou. Verifica o primeiro quarto onde entrou quando chegou em casa. Cedo ou tarde, seguindo os passos, você eventualmente encontraria as chaves do carro. Um algoritmo é uma sequência de instruções que garantem uma determinada conclusão da tarefa. Nós, como seres humanos, aplicamos algoritmos para tomar ações em todos os aspectos de nossas vidas. Assim, conhecer algoritmos pode ser um recurso para melhorar sua vida ou mesmo a vida das outras pessoas. Você pode, por exemplo, transformar algo que leva muito tempo para ser concluído em um algoritmo que o auxilia no processo de tomada de decisão. Você pode criar um algoritmo para priorizar suas tarefas ao invés de usar uma “to-do” list. Pode criar um algoritmo, por exemplo, para prever o melhor momento de visitar uma cidade. Pode criar um algoritmo para obter sugestões de quais filmes assistir de acordo com suas preferências e dados históricos. Não há limite para o que imaginamos e podemos tornar real aplicando algoritmos! Mas como ganhar esse conjunto de habilidades, e fazer a diferença com os algoritmos? Primeiro, vamos analisar as características de um algoritmo. Quais são as características de um algoritmo? Deve ser finito. Se seu algoritmo nunca para de tentar resolver o problema foi projetado para resolver, então é inútil; Deve ter instruções bem definidas. Cada passo do algoritmo precisa ser definido com precisão; as instruções devem ser inequivocamente especificadas para cada caso; Deve ser eficaz. O algoritmo deve resolver o problema que foi projetado para resolver. E deve ser possível demonstrar que o algoritmo converge com apenas um papel e um lápis.

Quais são os passos para aprender a codificar algoritmos?

  1. Desenvolva sua lógica de programação. Aqui vai uma lista sobre como melhorá-la.  
  2. Comece com uma linguagem de programação com a qual sinta-se confortável (se você não tiver nenhuma específica em mente, Python é recomendável – por ser considerada a mais fácil e simples de entender).
  3. Aprenda estruturas de dados. Comece com os mais básicos: strings, vetores, listas, arrays, mapas. Em seguida, fila (queue) e pilha (stack). Conclua com os mais avançados: árvores (trees), grafos (graphs) e tries.
  4. Pratique codificação de estruturas de dados. Aqui vai um bom recurso para estudo.
  5. Aprenda algoritmos simples primeiro e só então evolua para os algoritmos mais comuns. Certifique-se de compreender cada passo e não se sinta frustrado ou lento no processo. Lembre-se: não importa o quão lentamente você siga, contanto que não pare! Você pode pesquisar por vídeos também, pois facilitam a assimilação.
  6. Comece a lidar com problemas (por exemplo, no HackerRank, existem algoritmos engraçados e desafiadores). Você deve desenvolver uma estratégia de resolução de problemas, por exemplo, o método proposto por Gayle Laakmann McDowell Outros conselhos úteis: Faça perguntas. “Por que” e “o que” são realmente importantes para entender o básico de qualquer coisa! Quando você questiona a escolha, melhor irá memorizar a resposta e mais à fundo irá na fonte da informação. Para manter-se motivado e em dia com a curva de aprendizado, crie diariamente um algoritmo útil simples depois de aprender o básico. A realização alimenta a nossa energia. Tente resolver o problema sozinho primeiro, manualmente. Pegue um papel e comece a escrever os passos. Tome o tempo que for necessário ao invés de ir em busca de uma solução rápida. Mesmo se você descobrir a solução, não diga a si mesmo: “Está tudo bem agora, não há necessidade de implementá-lo, eu sei como ele funciona.” É um grande truque, na verdade, porque você nunca sabe o que perdeu, se não tentar e testar com corner cases Seja paciente. Se você começar a se sentir frustrado com um problema, deixe-o de lado e vá fazer algo que não lhe parece estressante. Então, somente após aliviar o stress, retome a tarefa.
Sugestões de livros The Algorithm Design Manual The Pragmatic Programmer Cracking the Coding Interview Github mission-peace Sites Topcoder: Uma explicação sobre estruturas de dados e algoritmos. ideserve: Uma explicação visual de alguns problemas de algoritmos. YouTube Tushar Roy: Uma explicação de alguns algoritmos avançados. Fonte: DZone.com ]]>

Diferenciações entre Inteligência Artificial, Machine Learning e Deep Learning

Com todo o jargão em rápida evolução na indústria atualmente, é importante sermos capazes de diferenciar entre AI, aprendizado de máquina e aprendizagem profunda. A maneira mais fácil de pensar em seu relacionamento é visualizá-los como um modelo concêntrico, conforme ilustrado na figura ao lado neste post, com cada termo definido. Aqui, a AI – a ideia que veio primeiro – tem a maior área, seguida pelo machine learning – que floresceu mais tarde e é mostrado como um subconjunto da AI. Finalmente, o deep learning – que tem direcionado a explosão da inteligência artificial – se encaixa dentro de ambos. O machine learning toma algumas das ideias centrais da AI e as concentra na resolução de problemas do mundo real com redes neurais concebidas para imitar a capacidade humana de tomada de decisão. O deep learning se concentra ainda mais estreitamente em um subconjunto de ferramentas e técnicas de machine learning, e as aplica para resolver qualquer problema que exija o “pensamento” – humano ou artificial. O machine learning é adequado para domínios problemáticos normalmente encontrados na empresa, como fazer previsões com métodos de aprendizagem supervisionados (por exemplo, regressão e classificação) e descoberta de conhecimento com métodos não supervisionados (por exemplo, clustering). O deep learning é uma área de aprendizado de máquina que tem alcançado progresso significativo em determinadas áreas de aplicação que incluem reconhecimento de padrões, classificação de imagens, processamento de linguagem natural (PNL), condução autônoma, e assim por diante. Técnicas de aprendizagem de máquina como random forests e gradient boosting muitas vezes funcionam melhor no espaço do problema empresarial do que o deep learning. O deep learning tenta aprender vários níveis de recursos de grandes conjuntos de dados com redes neurais de camadas múltiplas e tomar decisões preditivas para os novos dados. Isto indica duas fases no deep learning: primeiro, a rede neural é “treinada” com um grande número de dados de entrada; segundo, a rede neural treinada é usada para “inferência” projetada para fazer previsões com novos dados. Devido ao grande número de parâmetros e tamanho do conjunto de treinamento, a fase de treinamento requer enormes quantidades de poder de computação. A figura abaixo resume os papéis do treinamento versus inferência na aprendizagem profunda: Fonte: insideBIGDATA]]>

Como as indústrias tradicionais estão usando o Machine Learning e o Deep Learning para criar perspectivas estratégicas de negócios

O impacto da IA (inteligência artificial) nas funções de negócios será diverso em diferentes setores da indústria. Nas empresas de serviços financeiros, o impacto mais forte da IA é esperado na área de interação com o cliente, e nas organizações de manufatura – desenvolvimento de produtos. As ciências da saúde e da vida, entretanto, antecipam que o impacto da IA será maior na tomada de decisões de gestão. Em geral, as primeiras implementações de IA podem ajudar algumas organizações a aumentar a receita, sua eficiência operacional ou suas margens. Muitas empresas estão adotando um caminho acelerado para acessar, processar e tirar proveito dos dados usando a IA, o machine learning ou deep learning, ou seja, tornar-se uma “empresa de IA”. Se este é o seu caso, o tempo de agir é agora. Este é o ano em que vamos atravessar o regime dos zettabytes em termos de volume de dados. Assim, com a quantidade de dados que está à nossa disposição, juntamente com as aplicações pretendidas dos dados, as empresas estão procurando novas maneiras de gerenciar tudo isso. A ideia por trás do “dilúvio de dados”, prediz que as empresas procuram novas soluções. A motivação é fazer mais com ativos de dados valiosos – começar a usar IA, machine learning e deep learning. O mindset está mudando do sobrecarregado pelo dilúvio de dados para a real fome de dados. A IA está abrindo um desejo insaciável de dados, e isso está acontecendo agora. Uma área que parece estar decolando é como as empresas têm considerado a “análise acelerada” e a “análise orientada pela IA” como uma solução. O “Accelerated analytics” envolve soluções aceleradas de GPU (Graphics Processing Unit), como Kinetica, MapD, SQream DB, BlazingDB, Graphistry e BlazeGraph. O “AI driven analytics” aborda as necessidades do negócio digital da empresa e de obter acesso à informação. Acelerar o componente de análise é um lado da equação, o outro lado está fazendo isso a uma fração do custo. Há uma notável importância de avaliar e adotar a IA, o machine learning e o deep learning ou continuar a perder terreno para concorrentes que já estão no processo de fazê-lo. O número de exemplos de IA com sucesso para resolver problemas complexos cresce a cada dia. Isso significa que a indústria está em um estado de loop de feedback dinâmico, onde um fluxo contínuo de projetos bem-sucedidos de prova de conceito levam cada vez mais empresas a considerar soluções de IA. Abaixo, vamos destacar alguns exemplos de cases convincentes, com foco no uso bem-sucedido da IA, do machine learning e do deep learning. Os exemplos também ilustram como as GPUs podem ser efetivamente combinadas com a tecnologia de IA. Universidade de Pisa e Scuola Normale Superiore di Pisa: O Centro de Competência da Universidade de Pisa e Scuola Normale Superiore di Pisa foi criado para responder à crescente necessidade de soluções de infraestrutura de ponta, permitindo aos pesquisadores compartilhar e fortalecer seu trabalho, e aos visitantes obter insights sobre a tecnologia de infraestrutura mais recente e mais eficiente. Usando a arquitetura baseada em padrões – do mais recente em computação em nuvem às soluções HPC e de proteção de dados – o Centro pode ajudar as organizações a atingir o desempenho e os objetivos estratégicos. A Universidade de Pisa está usando tecnologias e sistemas de aprendizagem profunda da Dell EMC para sequenciamento de DNA e codificação de DNA como uma imagem. Os pesquisadores estão usando servidores Dell EMC PowerEdge C4130, com aceleradores NVIDIA Tesla P100 e NVIDIA Deep Learning GPU Training System (DIGITS), para a classificação em deep learning do sequenciamento de DNA. Academia Chinesa de Ciências: Na China, a Dell China está colaborando com a Academia Chinesa de Ciências em um laboratório avançado de computação e AI. Este laboratório centra-se na investigação e aplicações de novas arquiteturas de computação nos domínios de processamento de informação cerebral e AI. Pesquisas realizadas no laboratório abrangem a simulação de funções cognitivas, deep learning, simulação computacional cerebral e novos sistemas de computação relacionados. O laboratório também apoia o desenvolvimento da ciência do cérebro e pesquisa de tecnologia de intelecto, promovendo a inovação chinesa e avanços na vanguarda da ciência. De fato, a Dell China foi recentemente homenageada com um “Prêmio Inovação de Inteligência Artificial em Tecnologia e 3 Práticas” em reconhecimento pela colaboração. Fonte: insideBIGDATA ]]>

As linguagens mais populares em Ciência de Dados

Suponhamos que 99,9% das pessoas que lêem este artigo sabem o que são dados – uma coleção de fatos, estatísticas e informações de um determinado assunto é conhecido como dado, certo? Mas e quanto à Ciência dos Dados? A Ciência dos Dados é um “conceito para unificar estatísticas, análise de dados e seus métodos relacionados” para “compreender e analisar fenômenos reais” com dados. Emprega técnicas e teorias extraídas de muitos campos dentro das áreas da matemática, estatística, ciência da informação e da computação. Este campo está se tornando cada vez mais popular com o advento do machine learning. Para entender a Ciência dos Dados, devemos conhecer pelo menos uma das linguagens de programação. A boa notícia é que há muitas linguagens de programação usadas na Ciência dos Dados. Vamos descrever os mais importantes:

Python

O Python está no topo de todas as outras linguagens e é a mais popular usada pelos cientistas de dados. O Python está ganhando apelo rapidamente na comunidade e tem se tornado uma linguagem mais prática para desenvolver produtos. O Python é uma poderosa ferramenta para processamento de dados de médio porte. A linguagem também tem a vantagem de contar com uma comunidade rica no compartilhamento de dados e dicas, oferecendo grandes quantidades de toolkits e recursos. O Bank of America usa o Python para construir novos produtos e interfaces dentro da infraestrutura do banco e para comprimir os dados financeiros. O Python é amplo e flexível, de modo que as pessoas podem se adaptar a ele. Ainda assim, não é a linguagem de maior desempenho, e apenas ocasionalmente pode fornecer infraestruturas de core em larga escala. 

R

O R está na área desde 1997 como uma alternativa livre ao software estatístico caro, como Matlab ou SAS. Nos últimos anos, o R tornou-se o “filho pródigo” da Ciência dos Dados – agora é uma linguagem familiar não só entre estatísticos nerd, mas também entre operadores de Wall Street, biólogos e desenvolvedores do Vale do Silício. Empresas tão diversas como o Google, o Facebook, o Bank of America e o New York Times usam a linguagem R, ao passo que sua utilidade comercial só continua a aumentar.

Java

O Java e os frameworks baseados em Java são encontrados nas fundações das maiores empresas de tecnologia do Vale do Silício. Java não fornece a mesma qualidade de visualizações que R e Python, e não é a melhor opção para modelagem estatística. Mas se você está migrando de protótipos antigos e necessita construir grandes sistemas, o Java é muitas vezes a melhor aposta. O conjunto de ferramentas para Java é bem desenvolvido – uma variedade de IDEs e recursos maduros permitem que os desenvolvedores sejam razoavelmente produtivos. A Java Virtual Machine é muito boa para escrever código que parece idêntico em várias plataformas – e isso se adequa ao ecossistema de Big Data que, como muitas outras áreas de desenvolvimento, apresenta diversidade de plataforma. 

Scala

Scala é outra linguagem baseada em Java e, de forma semelhante ao Java, está se tornando a ferramenta padrão para quem trabalha com machine learning em grandes escalas ou na construção de algoritmos de alto nível. É expressiva e também capaz de construir sistemas robustos. Existem muitas outras linguagens populares e usadas amplamente pela Ciência dos Dados. Algumas delas são C/C++, Julia, Closure, Lisp, Perl, etc. De acordo com o KDnuggets, as linguagens de programação em Ciência de Dados classificadas por popularidade são as seguintes: Linguagem, participação em 2016 (participação em 2015), aumento percentual na participação Python, participação de 45,8% (era de 30,3%), aumento de 51% Java, participação de 16,8% (era de 14,1%), aumento de 19% Unix shell / awk / gawk participação de 10,4% (era de 8,0%), aumento de 30% C / C ++, 7,3% (9,4%), 23% menor Scala, 6,2% de participação (3,5%), aumento de 79% Perl, participação de 2,3% (2,9%), diminuição de 19% Julia, participação de 1,1% (1,1%), decréscimo de 1,6% F#, participação de 0,4% (0,7%), diminuição de 41,8% Clojure, participação de 0,4% (0,5%), queda de 19,4% Lisp, participação de 0,2% (0,4%), redução de 33,3% A paisagem da Ciência dos Dados está mudando rapidamente, e as ferramentas usadas para extrair o valor dessa tecnologia também cresceram em números. As duas línguas mais populares que lutam pelo primeiro lugar são disparado R e Python. Ambas são reverenciadas por entusiastas, e ambas contemplam forças e fraquezas. Mas com os gigantes da tecnologia como o Google mostrando a maneira de usar Python e com uma curva de aprendizado curta e fácil, falta pouco para ele se tornar a linguagem mais popular no mundo da ciência dos dados. Fonte: DZone.com ]]>

Como o aprendizado de máquina afetará o Master Data Management (MDM)

A abordagem tradicional de “sistema de controle” para o Master Data Management (MDM)onde o foco é centralizar e controlar dados para melhor distribuir informações através de um sistema de controle – já não é suficiente para uma organização que deseje estar no comando de seus dados. Graças à Internet das Coisas (IoT), ao aprendizado de máquina (ML) e à inteligência artificial (AI), o mundo está se tornando cada vez mais digital. Basta perguntar ao analista do Gartner, Frank Buytendijk, para quem “em 2016, os gastos com hardware IoT excederão US$ 2,5 milhões… por minuto”. Como resultado, o desafio de criar uma visualização confiável de todos os dados disponíveis e atender às demandas dos usuários de negócios está prestes a ficar muito mais exigente. Hoje em dia, é ainda mais crítico que as empresas se tornem ágeis no que se refere ao manejo de dados para que possam se adaptar às demandas em constante mudança e serem requeridas em vez de prejudicadas pelos dados gerados. A demanda por MDM tem se movido na direção da criação de um “sistema de engajamento”, onde a ênfase é colocada na criação da próxima geração de capacidades de comunicação e colaboração. O rápido crescimento do conceito de IoT e sua expansão se tornarão ainda mais difundidos devido ao desenvolvimento persistente da disponibilidade de Wi-Fi. Em pesquisa recente, a Forrester prevê que “o IoT será distribuído perifericamente e através da nuvem, impulsionado pela inteligência artificial e os containers”. Em outras palavras, a disponibilidade de Wi-Fi ajudará não só no crescimento da IoT, mas também no novo modelo de aprendizado de máquina que se avizinha. Ambos os fatores permitirão que quase qualquer dispositivo possa se conectar à Internet e, consequentemente, uns aos outros também. Máquinas e dispositivos serão cada vez mais orientados por dados e, portanto, também se tornarão parte da equação geral da IoT.

O que o significa aprendizado de máquina para MDM?

Em vez de serem usadas como um sistema de controle, o mercado em breve exigirá que as soluções MDM se adaptem e reajam às demandas de dados mais rapidamente, interna ou externamente. Definido por alguns como uma espécie de inteligência artificial que fornece aos computadores a capacidade de aprender sem ser explicitamente programado, há também em curso uma grande oportunidade de alavancar o aprendizado de máquina para adaptar dados de uma fonte para o consumidor ainda mais velozmente. Em vez de se concentrar em reforçar o formato e o significado para facilitar os intercâmbios, o aprendizado de máquina permitirá às organizações descobrir padrões nos dados, bem como propor associações, correlações e adaptações. Por exemplo, a aprendizagem de máquina usa algoritmos e a coleta de dados para criar uma predição, assim, quanto mais dados um sistema processa, mais aprenderá. Isso também permite que quaisquer dados novos sejam levados em consideração quando necessário, dependendo de interações anteriores, o que tornará as abordagens de extract-transform-load (ETL) uma coisa do passado. Então, o que tudo isso significa para o MDM? De acordo com Andrew White, do Gartner, “O deep learning não extinguirá o MDM. Nós só precisamos manter os pés no chão e entender os tipos de problemas com os quais o deep learning é capaz de lidar”. Embora o Master Data Management tenha ajudado, as empresas ainda precisam consolidar suas opiniões sobre o cliente ou o produto a partir de suas próprias fontes internas. Essas soluções não foram dimensionadas para lidar com o mundo conectado. Não importa quantos dados existam ou quão rápido eles possam se mover, o objetivo é entregar informações oportunas que os usuários possam converter em insights. As soluções de MDM fortalecem os esforços de Big Data de uma organização de várias maneiras, provendo informações para esforços maiores e fornecendo: – Uma fonte conectada para eCRM, personalização, social commerce e atividade offline – A capacidade de combinar dados mestre de produtos e clientes com informações dinâmicas baseadas na análise de dados da web e de mídias sociais – A oportunidade de um dia criar uma única fonte de informações comportamentais que podem se originar de várias fontes de dados – Uma única fonte de dados para todos os canais Soluções MDM continuarão como fonte da verdade e servirão como um ponto de partida lógico para análises de Big Data. As empresas que consideram usar aplicativos de Big Data precisam estabelecer uma estratégia MDM completa uma vez que o gerenciamento de dados mestres servirão como espinha dorsal dos aplicativos de Big Data. Essss apps, por sua vez, complementarão os fluxos de Big Data, permitindo que as organizações obtenham melhor análise e insights mais precisos de todos os tipos de dados e fontes, independentemente de como foram obtidos. Fonte: insideBIGDATA ]]>

Mercado de realidade virtual e realidade aumentada crescerá 20 vezes em 5 anos

A maioria das pessoas pode rolar a página inadvertidamente quando o assunto é realidade virtual e realidade aumentada no ambiente corporativo, mas tanto os desenvolvedores de hardware como de software por trás dessas tecnologias anseiam por um novo mundo de oportunidades. De uma comunicação e colaboração melhores a formas inteiramente novas de gerenciamento de infraestrutura e manutenção, esses desenvolvedores estão convencidos de que é possível fazer mais em um ambiente artificial do que em um real. Estudos e mercados recentemente adicionaram a realidade aumentada (AR) e a realidade virtual (VR) ao portfolio, prevendo que o mercado de AR passará de 150.000 unidades em 2016 para 22.8 milhões em 2022. Isso levará a uma receita de aproximados US$ 128,6 milhões para quase US$ 20 bilhões, gerados por plataformas que vão desde simples óculos de assistência de realidade virtual a capacetes inteligentes totalmente imersivos e exibições holográficas. Ao mesmo tempo, a tecnologia irá evoluir além de uma simples novidade do consumidor para uma ampla gama de aplicações empresariais, industriais e orientadas verticalmente, como a da saúde. O potencial da AR de refazer o mundo da inteligência de negócios não deve ser subestimada, de acordo com Business Insider. Para funções complexas como gerenciamento da cadeia de suprimentos, a AR pode melhorar muito o processo de tomada de decisão, reduzir as viagens e melhorar a produtividade criando visualizações 3D de cadeias de suprimentos ou representações imersivas de pisos e armazéns de fábricas. Desta forma, o gerente da cadeia de suprimentos pode se tornar onipresente, com a capacidade de visualizar as condições em toda a produção até os ambientes de entrega das mercadorias. Em outros lugares, a AR/VR tem o potencial de desagregar a força de trabalho até o ponto em que mesmo um escritório central se torne coisa do passado. Para Chris Martin, do portal IT Pro, os funcionários devidamente equipados poderão conversar “face a face virtualmente” de qualquer lugar do mundo e, ao mesmo tempo, ter acesso a conjuntos de dados e capacidades de exibição que tornarão as reuniões e conversas mais produtivas do que nunca. Em contrapartida, atividades de reparo e manutenção poderão ser “aumentadas’ com sobreposições virtuais de como exatamente uma peça de equipamento deveria ser e representações virtuais do processo exato passo a passo para restaurar seu funcionamento original. Já o mercado está começando a gerar plataformas especializadas para casos de uso importantes, como o novo headset R-7HL da ODG projetado para suportar condições ambientais extremas. A empresa está lançando os dispositivos, que vendem por cerca de US$ 3.500 a unidade, para empresas de petróleo e gás, mineração, empresas de serviços públicos, químicas e farmacêuticas, e há atualmente mais pedidos em andamento para entrega. O ODG também trabalha em direção a um dispositivo de classe empresarial, que será lançado ainda neste ano, bem como em uma versão com recursos como monitores controlados pelo corpo e modelagem geométrica de ambientes. Naturalmente, o interesse despertado nos desenvolvedores não é nenhuma garantia de sucesso comercial futuro. Para introduzir a próxima interface de usuário, a indústria AR/VR terá que demonstrar claramente que pode fornecer não apenas um meio diferente de trabalhar, mas um melhor. O potencial certamente existe, mas o sucesso, como sempre, virá da aplicação. Fonte: ITBusinessEdge  ]]>

Como o Big Data irá evoluir ao longo de 2017?

Para 2017, os consumidores fornecedores podem igualmente esperar um gigantesco crescimento na produção de dados. Um volume monumental é produzido todos os dias, o que é bastante significativo especialmente no que diz respeito à inteligência artificial. O que pode ser uma surpresa, porém, é que enquanto os investimentos em Big Data estão aumentando, menos empresas estão surfando nessa onda, o que significa que a tendência provavelmente levará a uma crescente divisão entre as organizações que “sabem” e as que “não sabem” como tirar o melhor proveito das tecnologias de Big Data. Aquelas que têm aproveitado o movimento, porém, precisam começar a fazer perguntas mais complexas para melhores insights sobre dados coletados e analisados. Além disso, precisam levar em consideração que os resultados de suas análises podem também levar a uma mudança em seus comportamentos de negócios.

Eleições 2016

O resultado da eleição presidencial de 2016 nos EUA é um excelente exemplo do motivo pelo qual os usuários de Big Data precisam reavaliar o modo como usam suas análises. Enquanto os dados estavam à disposição, muitos especialistas não foram capazes de identificar e traduzir as tendências puramente por irem contra a compreensão vigente sobre a questão, impedindo-os de enxergar qual seria o resultado final. Alguns analistas foram capazes de reconhecer essas tendências e criar uma hipótese precisa sobre quem ganharia a eleição, mas mesmo assim sem muita convicção a respeito. Para movimentar visões ultrapassadas sobre Big Data, as organizações devem desenvolver ambientes que fomentem a criação de novas ideias. Mais ainda, elas devem abraçar essas novas ideias e explorá-las com segurança; isso é o que produz uma convergência da informação que coletam e insights precisos que são capazes de absorver e desenvolver.

Onde entra a convergência?

Para desenvolver insights precisos sobre Big Data, algoritmos mais inteligentes serão necessários, juntamente com o uso de sistemas superiores de inteligência artificial. As respostas automatizadas podem então ser desenvolvidas em relação aos insights revelados através de analytics de Big Data. A computação cognitiva tem aumentado enormemente a capacidade de revelar essas percepções porque cria conclusões valiosas a partir de dados estruturados e não estruturados.

Machine learning refinado

O chamado streaming analytics vai se tornar um padrão para as empresas, provendo-lhes uma grande vantagem competitiva. Enquanto a adoção do streaming analytics levou vários anos para acontecer entre as grandes empresas durante a última década, a taxa de adoção será muito reduzida em 2017. Veremos as empresas passando da análise de dados em modo batch uma ou duas vezes por dia para o streaming de dados em tempo real, possibilitando melhores oportunidades de negócio; isso levará essas empresas a melhor atender às necessidades de seus clientes, e é graças a um trabalho de machine learning refinado que esse benefício será obtido.

Big Data ainda se move em direção à nuvem

O Big Data pode ser armazenado dentro ou fora da nuvem. Em 2017, no entanto, o aumento do Big Data baseado em nuvem deve aumentar. De fato, cerca de 35% a 40% das dos workloads de Big Data serão processados via nuvem, com a maioria desses processos sendo implementados na nuvem até 2019 (ou seja, menos de dois anos). E por que ocorre esse impulso para a computação em nuvem? Basicamente, é principalmente devido a questões de segurança. As grandes empresas – enquanto muitas delas são bem suportadas por recursos financeiros – outras não contemplam os recursos de segurança comercial necessários para manter seus próprios dados. Por fim, em 2017, os principais executivos das grandes empresas ganharão mais clareza em relação ao potencial do analytics de Big Data, o que aumentará sua participação no uso de análises de dados em todos os departamentos da organização à qual estiverem envolvidos. Espera-se que essa participação enseje o envolvimento dos demais funcionários em toda a organização a dados pertinentes, que ofereçam a capacidade de fazer escolhas mais inteligentes e produtivas em suas atividades de negócio. Quando os dados são capazes de conduzir todas as decisões em uma empresa, isso resulta no desenvolvimento de uma vantagem competitiva e resultados de negócios mais rentáveis. Esse, é o futuro do Big Data. Fonte: insideBIGDATA ]]>

Computação cognitiva abre uma nova era com o Deep Learning

A tecnologia tem permeado vários aspectos da vida humana e isso inclui também o cérebro humano. O conceito de computação cognitiva é um testemunho da evolução da próxima geração de sistemas que imitam o funcionamento do cérebro. Envolve uma simulação precisa de processos de pensamento humano em um modelo computadorizado, que pode incluir componentes de software e/ou hardware. A computação cognitiva ajuda no processamento de grandes volumes de dados complexos e leva a uma melhor tomada de decisão sem necessidade de assistência humana. Tem se provado uma ferramenta potencialmente poderosa para a conversão de dados não estruturados em informações estruturadas e sensíveis para o processamento de decisões. O segmento de computação cognitiva está a caminho de se estabelecer como um mercado emergente, com suas variadas aplicações em setores que envolvem o processamento de volumes colossais de dados. As indústrias de saúde, BFSI, segurança, TI, telecomunicações e varejo são os principais setores que impulsionam a demanda por machine learning, aprendizado automatizado, processamento de linguagem natural e analytics de Big Data. De acordo com especialistas da Allied Market Research, espera-se que o mercado de computação cognitiva global gere uma receita de US$ 13,7 bilhões até 2020. Isso aponta para um crescimento promissor do segmento nos próximos anos.

Varejo mais receptivo aos clientes

O setor de varejo, juntamente com portais de comércio eletrônico, lidam com uma grande quantidade de dados referentes a clientes, dispositivos, software, pessoas e processos. É essencial que esses dados possuam uma estrutura apropriada e sejam transformados em algum volume de informação sensível que possa ser retransmitido eficazmente. A integração dos sistemas de computação cognitiva com a nuvem na gestão desses processos tornou o setor varejista mais organizado e receptivo ao cliente. Uma tecnologia que ajuda na transformação e aprimoramento da experiência de compra dos consumidores, avaliando os comportamentos dos clientes e proprietários de negócios. Sistemas de computação cognitiva analisam as interações anteriores entre os dois, como histórico de compra e feedbacks do call center, e formula hipóteses sobre elas. O que lhes permite agir e decidir sobre esses padrões observados em situações em tempo real. O segmento de varejo percebe a necessidade de fornecer produtos mais inovadores, uma experiência de cliente única e agilidade no desempenho do negócio. Os sistemas de computação cognitiva prometem fazer exatamente isso, razão pela qual há um aumento no número de varejistas que abraçam essa tecnologia disruptiva. A indústria de varejo aumentou a demanda por sistemas mais inteligentes que podem mudar a maneira como o serviço ao cliente e as experiências de compras são percebidas. É seguro acreditar que o mercado de computação cognitiva está marcado para escalar novas alturas nos próximos anos.

Computação cognitiva empresta maior versatilidade para analytics de Big Data

Intrincados problemas com dados têm sido resolvidos em um ritmo muito mais rápido sem o envolvimento constantes insights humanos. Sim, é assim que a computação cognitiva tem solucionado grandes problemas relacionados ao controle e organização de dados complexos. Ao incorporar esses sistemas com analytics de Big Data, as complexidades de diferentes dados são tratadas de forma mais transparente. O processamento de linguagem natural facilitou a comunicação com máquinas para os resultados desejados. A computação cognitiva possibilita uma maneira mais fácil e suave de interação entre seres humanos e máquinas, proporcionando assim fluidez às capacidades analíticas de cada um. Isso, juntamente com a inteligência artificial, está no front das tecnologias de nuvem no futuro imediato. A indústria de computação cognitiva está crescendo e promete abrir novas avenidas para o Big Data dentro em breve. Empresas como a IBM Corporation, o Google, a Microsoft, a HP, a Oracle e a SAP estão engajadas na reinvenção do machine learning através de métodos de computação cognitiva inovadores. Tecnologias de inteligência artificial e deep machine learning em sintonia com a computação cognitiva são tidas como necessárias para abrir novas fronteiras para o IoT. As infinitas possibilidades da computação cognitiva prometem tornar-se rapidamente uma tendência disruptiva na forma como funcionam as tecnologias em nuvem. O setor de saúde, energia e utilitários, transporte, varejo e defesa estão recorrendo a esses métodos de computação inteligente para obter benefícios incrementais a longo prazo. Ao avaliar padrões comportamentais humanos, processos de pensamento e decisões, os sistemas de computação cognitiva estão provando seu valor em dar insights incrivelmente precisos para uma melhor tomada de decisão. O futuro não está longe de onde o mercado de computação cognitiva em breve irá aportar para redefinir o modo como os seres humanos e as máquinas interagem e funcionam.   Fonte: insideBIGDATA ]]>

Em 2017, a Inteligência Artificial será ao mesmo tempo arma e ferramenta de segurança

Será que 2017 é o ano em que a Inteligência Artificial (IA) e o machine learning se tornarão uma importante ferramenta de primeira linha para a segurança cibernética? Muitos especialistas em segurança acreditam que sim. Paul Shomo, por exemplo, que é Gerente Técnico de Parcerias Estratégicas na Guidance Software, acredita que: “Em 2016, a IA passou a ser mainstream, com sua capacidade de detectar binários de malware no disco, incluindo as variantes polimórficas perdidas por assinaturas. Em 2017, a IA vai conquistar a análise dinâmica, adicionando a detecção de execução e processos injetados às suas operações.” Para Paul, a IA ou abordagens baseadas em machine learning buscarão arquivos binários no disco rígido, e não serão capazes de examinar a memória residente ou malware “injetado”. O resultado é que executar malware que exclui arquivos fora do disco pode “brigar” com o machine learning.“ A solução é analisar os processos em execução, mas isso tem se provado muito difícil. Arquivos estáticos são analisados simplesmente analisando por dentro deles. A análise dinâmica é mais difícil porque o código que está sendo executado na memória vem de muitos lugares, é imprevisível e de difícil acesso. Possivelmente, técnicas forenses de memória precisarão ser associadas ao machine learning para acessar conjuntos de dados semelhantes aos aos atualmente explorados pela IA. Para Roman Foeckl, CEO da CoSoSys, a IA poderia compor uma parte importante da segurança cibernética em 2017, uma vez que suas ferramentas serão equipadas com IA para melhor detecção e prevenção de incidentes de segurança. “No DLP, por exemplo, a IA pode fazer uma grande diferença porque será capaz de gerar transferências de dados e padrões de manipulação para uma proteção mais eficaz de dados sensíveis”, afirma o executivo. “Faz sentido que comecemos a recorrer à IA para defesas de segurança. As ameaças estão se tornando mais complexas, como aponta o blog Record Future, e a análise humana precisa de assistência. A AI será uma ferramenta necessária para resolver o atual déficit de competências de segurança; nós não temos mãos suficientes para detectar, identificar e lutar contra ameaças. A IA não vai substituir seres humanos, mas pode certamente fornecer uma assistência”, completou. Para John Worrall, CMO da CyberArk, no entanto, a IA não é perfeita, nem é imune a suas próprias ameaças potenciais. “Na medida em que vemos outras tecnologias, na medida em que a IA se torna commoditizada, podemos esperar que os invasores cibernéticos aproveitem a IA de forma semelhante às empresas. Algo muito parecido com o primeiro ataque envolvendo botnet IoT desencadeado na Internet neste ano, 2017 será também conhecido pelo primeiro ataque cibernético controlado pela IA”. Worrall acrescentou que esses ataques serão caracterizados pela sua capacidade de aprender e melhorar à medida que evoluem. Este tipo de ataque avançado irá se transformar e tornar-se comum, levando a um enorme pico econômico no submundo hacker. Faz sentido. Devemos esperar que todas as ferramentas conectadas estejam em risco de ameaças, mas, a longo prazo, a AI irá operar mais como uma ferramenta de segurança cibernética do que como uma ameaça à segurança cibernética. Ou pelo menos os especialistas acreditam que sim. Seja como for, espera-se que 2017 seja o ano em que Inteligência Artificial e cibersegurança sejam termos muito usados em conjunto. Fonte: IT Business Edge ]]>