Visualizando com knime e rapidminer para aprendizado de máquina
Video: RapidMiner Web Scraping With XPath
Conteúdo
Os seres humanos têm um tempo terrível visualização de dados abstratos, e às vezes a saída de aprendizagem de máquina torna-se extremamente abstrato. Você pode usar uma ferramenta de produção gráfica para que você possa visualizar como os dados realmente aparece. KNIME e RapidMiner excel a tarefa, ajudando você a produzir facilmente gráficos de alta qualidade. Seu uso para vários tipos de tarefas de mineração de dados também distingue esses dois produtos de outros produtos.
Video: RapidMiner Platform Demo: Part 7 - Platform Management, Scoring & Delivery
A indústria farmacêutica baseia-se fortemente em KNIME para executar ambas as funções de aprendizagem automática e de extracção de dados baseando-se em fluxos de dados (pipelines). O uso de uma GUI faz KNIME relativamente fácil de aprender.
Na verdade, KNIME depende de uma das interfaces gráficas mais populares disponíveis hoje, Eclipse, que também é usado para suportar um grande número de linguagens de programação, como Java, C / C ++, javascript e PHP (entre muitos outros disponíveis através de plug-ins). Ele também se integra bem com Weka e LIBSVM, de modo a facilidade de uso não vem com a perda de funcionalidade.
Video: Como fazer mineração de dados com o RapidMiner
RapidMiner atende mais às necessidades dos negócios, que usa-lo para a aprendizagem de máquina, mineração de dados, mineração de texto, análise preditiva e de análise necessidades de negócios. Em contraste com muitos outros produtos, RapidMiner se baseia em um modelo cliente / servidor, no qual o servidor aparece como um como-um Software-serviço opção baseada em nuvem (SaaS). Isso significa que uma empresa pode testar o ambiente sem fazer um grande investimento inicial em software ou hardware. RapidMiner funciona tanto com R e Python. Empresas como a eBay, Intel, PepsiCo e Kraft Foods atualmente usam RapidMiner para diversas necessidades.
A característica distintiva destes dois produtos é que eles contam com a Extract, Transform, Load modelo (ETL). Neste modelo, o primeiro processo extrai todos os dados necessários a partir de várias fontes, que transforma os dados para um formato comum e, em seguida, carrega os dados transformados numa base de dados para análise. Você pode encontrar uma visão sucinta do processo aqui.