CTA

시작하기

클라우드

시작할 준비가 되셨습니까?

Sandbox 다운로드

어떤 도움이 필요하십니까?

닫기닫기 버튼

Hortonworks Sandbox Tutorials
for Apache Hadoop

Hortonworks Sandbox에 기반을 둔 튜토리얼을 Hadoop에서 만나 보세요.

Hadoop를 통한 개발

Hadoop을 사용하여 개발을 시작하십시오. 다음 튜토리얼은 Hadoop를 통한 손쉬운 개발 작업을 위한 것입니다.

HDP의 Apache Spark

Introduction This is the third tutorial in a series about building and deploying machine learning models with Apache Nifi and Spark. In Part 1 of the series we learned how to use Nifi to ingest and store Twitter Streams. In Part 2 we ran Spark from a Zeppelin notebook to design a machine learning model […]

Introduction This tutorial will teach you how to build sentiment analysis algorithms with Apache Spark. We will be doing data transformation using Scala and Apache Spark 2, and we will be classifying tweets as happy or sad using a Gradient Boosting algorithm. Although this tutorial is focused on sentiment analysis, Gradient Boosting is a versatile […]

Introduction Apache Spark is a fast, in-memory data processing engine with elegant and expressive development APIs in Scala, Java, Python, and R that allow developers to execute a variety of data intensive workloads. In this tutorial, we will use an Apache Zeppelin notebook for our development environment to keep things simple and elegant. Zeppelin will […]

Introduction This tutorial walks you through many of the newer features of Spark 1.6.2 on YARN. With YARN, Hadoop can now support many types of data and application workloads; Spark on YARN becomes yet another workload running against the same set of hardware resources. Prerequisites This tutorial is a part of series of hands-on tutorials […]

Introduction Apache Zeppelin is a web-based notebook that enables interactive data analytics. With Zeppelin, you can make beautiful data-driven, interactive and collaborative documents with a rich set of pre-built language backends (or interpreters) such as Scala (with Apache Spark), Python (with Apache Spark), SparkSQL, Hive, Markdown, Angular, and Shell. With a focus on Enterprise, Zeppelin […]

Introduction In this two-part lab-based tutorial, we will first introduce you to Apache Spark SQL. Spark SQL is a higher-level Spark module that allows you to operate on DataFrames and Datasets, which we will cover in more detail later. In the second part of the lab, we will explore an airline dataset using high-level SQL […]

Introduction In this tutorial, we will introduce you to Machine Learning with Apache Spark. The hands-on lab for this tutorial is an Apache Zeppelin notebook that has all the steps necessary to ingest and explore data, train, test, visualize, and save a model. We will cover a basic Linear Regression model that will allow us […]

Introduction The technical preview of the Spark-HBase connector was developed by Hortonworks along with Bloomberg. The connector leverages Spark SQL Data Sources API introduced in Spark-1.2.0. It bridges the gap between the simple HBase Key Value store and complex relational SQL queries and enables users to perform complex data analytics on top of HBase using […]

Hello World

Introduction This tutorial is aimed for users who do not have much experience in using the Sandbox. We will install and explore the Sandbox on virtual machine and cloud environments. We will also navigate the Ambari user interface. Let’s begin our Hadoop journey. Prerequisites Downloaded and Installed Hortonworks Sandbox Allow yourself around one hour to […]

This tutorial will help you get started with Hadoop and HDP.

교통 체증은 출퇴근 직원에게는 심각한 문제입니다. 도시 계획 전문가 팀은 협업을 통해 교통의 패턴을 기반으로 새로운 고속도로의 위치를 선정합니다. 하지만, 기존에 집계된 교통량을 사용할 경우 교통 데이터를 분석하는 데 있어 라이브 데이터에는 근본적으로 문제점이 존재하게 됩니다. 이 때문에 도시 계획 전문가들은 실시간 데이터의 통합을 위해 활성 데이터의 수집, 필터링 및 저장 기능을 사용하는 NiFi를 채택했습니다. 도시 계획 전문가 팀이 NiFi를 활용하여 교통 패턴에 대해 보다 심층적으로 이해하고 새로운 고속도로 위치를 선정한 방법에 대해 알아보십시오.

This tutorial will go through the introduction of Apache HBase and Apache Phoenix along with the new Backup and Restore utility in HBase that has been introduced in HDP 2.5. Enjoy HADOOPING!!

This Hadoop tutorial shows how to Process Data with Hive using a set of driver data statistics.

This Hadoop tutorial shows how to Process Data with Apache Pig using a set of driver data statistics.

In this tutorial, we will load and review data for a fictitious web retail store in what has become an established use case for Hadoop: deriving insights from large data sources such as web logs.

how to get started with Cascading and Hortonworks Data Platform using the Word Count Example.

이 튜토리얼을 완료하는 데 문제가 있을 경우 Hortonworks Community Connection을 통해 문의하거나 알려주십시오! Cascading과 HDP(Hortonworks Data Platform)에 대해 자세히 알아보고자 하는 Java 개발자를 위한 두 번째 튜토리얼입니다. 기타 튜토리얼: HDP 2.3 Sandbox의 WordCount와 Cascading, HDP 2.3 Sandbox의 LogParsing과 Cascading […]

Cascading Pattern을 사용하여 SAS, R, MicroStrategy에서 Hadoop으로 PMML(Predictive Models)을 신속히 마이그레이션하고 대규모 환경에 배포하는 방법을 알아봅니다.

Introduction Hive LLAP combines persistent query servers and intelligent in-memory caching to deliver blazing-fast SQL queries without sacrificing the scalability Hive and Hadoop are known for. This tutorial will show you how to try LLAP on your HDP Sandbox and experience its interactive performance firsthand using a BI tool of your choice (Tableau will be […]

Introduction Apache HBase is a NoSQL database in the Hadoop eco-system. Many business intelligence tool and data analytic tools lack the ability to work with HBase data directly. Apache Phoenix enables you to interact with HBase using SQL. In HDP 2.5, we have introduced support for ODBC drivers. With this, you can connect any ODBC […]

Apache Storm을 사용하여 Hortonworks Data Platform을 통해 Hadoop에서 실시간 스트리밍 데이터를 처리하는 방법에 대해 알아봅니다.

How to use Apache Tez and Apache Hive for Interactive Query with Hadoop and Hortonworks Data Platform 2.5

이 튜토리얼에서는 HDFS에 저장된 인덱스(Solr 데이터 파일)를 통해 Hadoop에서 Solr를 실행하고 MapReduce 작업을 사용하여 파일을 인덱싱하는 방법에 대해 알아봅니다.

Apache Falcon을 사용하여 Hadoop 및 Hortonworks Data Platform 2.1의 정책 및 엔드 투 엔드 데이터 파이프라인을 정의할 수 있습니다.

Standard SQL provides ACID operations through INSERT, UPDATE, DELETE, transactions, and the more recent MERGE operations. These have proven to be robust and flexible enough for most workloads. Hive offers INSERT, UPDATE and DELETE, with more of capabilities on the roadmap.

소개: 이 Hadoop 개발자용 튜토리얼에서는 Apache Hadoop의 핵심 개념을 살펴보고 MapReduce Program의 작성 과정을 검토합니다. 사전 요구 사항: 최신 Hortonworks Sandbox 다운로드 및 설치, Hortonworks Sandbox의 로프 학습 개요, Hadoop 1단계: Apache Hadoop의 핵심 개념 살펴보기, 1.1 MapReduce란 무엇인가요? 1.2 […]

Real World Examples

이미지 파일에서 텍스트를 인덱싱하는 기능(예: 스캔한 PNG 파일의 텍스트)은 많은 고객들이 흔히 요청하는 사항입니다. 이 튜토리얼에서는 SOLR를 통해 이를 수행하는 방법에 대해 살펴봅니다. 사전 요구 사항: Hortonworks Sandbox 다운로드. HDP Sandbox의 로프 학습 튜토리얼 완료. 단계별 가이드 […]

This tutorial will cover the core concepts of Storm and the role it plays in an environment where real-time, low-latency and distributed data processing is important.

소개 Apache Falcon은 복제, 라이프사이클 관리, 계보 및 추적 가능성 등으로 데이터 이동의 구성을 간소화합니다. 또한 Hadoop 구성 요소 전반에 걸쳐 데이터 거버넌스 일관성을 제공합니다. 시나리오: 이 튜토리얼에서는 전국의 여러 HDP 2.2 클러스터에서 이메일 데이터를 처리하고 1시간마다 클라우드 호스트된 클러스터에 백업하는 시나리오에 대해 살펴봅니다. […]

Learn to ingest the real-time data from car sensors with NiFi and send it to Hadoop. Use Apache Kafka for capturing that data in between NiFi and Storm for scalability and reliability. Deploy a storm topology that pulls the data from Kafka and performs complex transformations to combine geolocation data from trucks with sensor data from trucks and roads. Once all sub projects are completed, deploy the driver monitor demo web application to see driver behavior, predictions and drools data in 3 different map visualizations.

온라인 고객이 구매를 완료할 확률을 높이려면 어떻게 해야 할까요? Hadoop을 사용하면 방문객이 웹사이트에서 행동하는 방법을 더 쉽게 분석한 후 변화시킬 수 있습니다. 여기서 온라인 소매업체가 구매 경로를 최적화하여 이탈율을 줄이고 전환율을 높이는 방법을 볼 수 있습니다. HDP는 웹사이트 클릭스트림 데이터를 캡처하고 개선하여 회사의 전자 상거래 목표를 초과 달성하는 데 도움이 될 수 있습니다. 이 동영상과 함께 제공되는 튜토리얼에서는 HDP를 사용하여 원시 클릭스트림 데이터를 개선하는 방법에 대해 설명합니다.

보안 위반은 어느 상황에서나 발생할 수 있습니다. 보안 위반이 발생하면 보안 로그를 분석하여 위협을 확인하고 미래에 스스로를 더 효과적으로 보호할 수 있습니다. Hadoop이 법적 조사(forensics)의 속도를 높이고 로그 데이터를 더 오래 보존하고 IT 정책 준수를 입증하여 서버 로그 분석을 한 단계 격상시키는 방법에 대해 알아보십시오. 이 동영상과 함께 제공되는 튜토리얼에서는 HDP를 사용하여 원시 서버 로그 데이터를 개선하는 방법에 대해 설명합니다.

Hadoop을 사용해 Twitter, Facebook 및 기타 소셜 미디어 대화에서 데이터를 마이닝하여 귀사와 경쟁사에 대해 고객이 어떻게 생각하는지 분석할 수 있습니다. 더 많은 소셜 빅 데이터로 더 분명한 목표를 갖고 실시간으로 결정을 내릴 수 있습니다. 이 동영상과 함께 제공되는 튜토리얼에서는 HDP를 사용하여 원시 Twitter 데이터를 개선하는 방법에 대해 설명합니다.

기계는 많은 것을 알고 있습니다. 센서는 항상 켜져 있으면서 데이터를 저렴하게 스트리밍니다. Hadoop은 더 쉽게 데이터를 저장하고 정리하여 중요한 패턴을 식별하는 데 도움을 주며, 예측 분석을 사용하여 비즈니스에 관한 능동적인 결정을 내리는 데 필요한 통찰력을 제공합니다. Hadoop을 사용해 난방, 환기 및 냉방 데이터를 분석하여 이상적인 사무실 온도를 유지하고 비용을 최적화하는 방법에 대해 알아보십시오.

RADAR은 ITC Handy 도구(NLP 및 Sentiment Analysis 엔진)와 Hadoop 기술을 활용하여 구축된 소매업체용 소프트웨어 솔루션으로 …

소개: H2O는 빅 데이터에 대한 예측 분석을 위해 0xdata 메모리 솔루션의 오픈 소스입니다. 또한 강력한 알고리즘을 분산 및 병렬화하는 수학 및 시스템 학습 엔진으로, 보다 향상된 예측과 더 빠르고 정확한 모델을 생성할 수 있게 합니다. R 및 JSON과 같은 익숙한 API뿐 아니라 […]

Hadoop 관리

Hadoop 관리를 시작해 보십시오. 다음 튜토리얼은 Hadoop을 손쉽게 관리하기 위한 것입니다.

Hortonworks Sandbox

The Hortonworks Sandbox is delivered as a Dockerized container with the most common ports already opened and forwarded for you. If you would like to open even more ports, check out this tutorial.

Welcome to the Hortonworks Sandbox! Look at the attached sections for sandbox documentation.

The Hortonworks Sandbox can be installed in a myriad of virtualization platforms, including VirtualBox, Docker, VMWare and Azure.

작업

Introduction The Azure cloud infrastructure has become a common place for users to deploy virtual machines on the cloud due to its flexibility, ease of deployment, and cost benefits. Microsoft has expanded Azure to include a marketplace with thousands of certified, open source, and community software applications and developer services, pre-configured for Microsoft Azure. This […]

Introduction The Hortonworks Sandbox running on Azure requires opening ports a bit differently than when the sandbox is running locally on Virtualbox or Docker. We’ll walk through how to open a port in Azure so that outside connections make their way into the sandbox, which is a Docker container inside an Azure virtual machine. Note: […]

소개: Apache Falcon은 Hadoop 클러스터에서 데이터 파이프라인 처리 및 관리를 간소화하는 프레임워크입니다. Apache Falcon은 늦은 데이터 처리 및 재시도 정책에 대한 지원을 통해 새로운 워크플로/파이프라인을 더욱 간편하게 온보딩할 수 있도록 합니다. 또한 손쉽게 다양한 데이터와 처리 요소 간의 관계를 정의하고 Hive/HCatalog와 같은 메타스토어/카탈로그와 통합할 수 있게 합니다. 결국 […]

소개: Apache Falcon은 Hadoop 클러스터에서 데이터 파이프라인의 처리 및 관리를 간소화하는 프레임워크입니다. 또한 보존, 클러스터 전반에 걸친 복제, 보관 등의 데이터 관리 서비스를 제공합니다. Apache Falcon은 늦은 데이터 처리 및 재시도 정책에 대한 지원을 통해 새로운 워크플로/파이프라인을 더욱 간편하게 온보딩할 수 있도록 합니다. 또한 손쉽게 관계를 정의할 수 […]

Introduction In this tutorial, we will explore how to quickly and easily deploy Apache Hadoop with Apache Ambari. We will spin up our own VM with Vagrant and Apache Ambari. Vagrant is very popular with developers as it lets one mirror the production environment in a VM while staying with all the IDEs and tools in the comfort […]

소개: Apache Falcon은 Hadoop 클러스터에서 데이터 파이프라인 처리 및 관리를 간소화하는 프레임워크입니다. Apache Falcon은 늦은 데이터 처리 및 재시도 정책에 대한 지원을 통해 새로운 워크플로/파이프라인을 더욱 간편하게 온보딩할 수 있도록 합니다. 또한 손쉽게 다양한 데이터와 처리 요소 간의 관계를 정의하고 Hive/HCatalog와 같은 메타스토어/카탈로그와 통합할 수 있게 합니다. 결국 […]

Introduction In this tutorial we are going to explore how we can configure YARN Capacity Scheduler from Ambari. YARN’s Capacity Scheduler is designed to run Hadoop applications in a shared, multi-tenant cluster while maximizing the throughput and the utilization of the cluster. Traditionally each organization has it own private set of compute resources that have […]

Apache Hadoop clusters grow and change with use. Maybe you used Apache Ambari to build your initial cluster with a base set of Hadoop services targeting known use cases and now you want to add other services for new use cases. Or you may just need to expand the storage and processing capacity of the […]

In this tutorial, we will walk through many of the common of the basic Hadoop Distributed File System (HDFS) commands you will need to manage files on HDFS. The particular datasets we will utilize to learn HDFS file management are San Francisco salaries from 2011-2014.

얼마 전에 사용자 또는 애플리케이션 오류로부터 중요한 엔터프라이즈 데이터 세트를 보호하도록 스냅샷을 생성할 수 있는 기능이 도입되었습니다. HDFS 스냅샷은 파일 시스템의 읽기 전용 특정 시점 사본입니다. 스냅샷은 파일 시스템 하위 트리 또는 전체 파일 시스템에서 생성할 수 있으며, 다음과 같은 특징이 있습니다. 높은 성능 및 안정성: 스냅샷 생성은 원자성이며 […]

이 튜토리얼에서는 Windows 7에서 Hortonworks ODBC 드라이버를 설치하고 구성하는 방법에 대해 살펴봅니다.

Real World Examples

Introduction This tutorial is aimed for users who do not have much experience in using the Sandbox. We will install and explore the Sandbox on virtual machine and cloud environments. We will also navigate the Ambari user interface. Let’s begin our Hadoop journey. Prerequisites Downloaded and Installed Hortonworks Sandbox Allow yourself around one hour to […]

보안

이 튜토리얼에서는 HDP Advanced Security의 정책을 사용하여 엔터프라이즈 Data Lake를 보호하고 중앙 집중식 HDP Security Administration Console에서 HDFS, Hive 및 HBase의 리소스에 대한 사용자 액세스를 감사하는 방법에 대해 살펴봅니다.

소개 Apache Ranger는 Hadoop 클러스터 보안에 대한 종합적인 접근법을 제공합니다. Apache Ranger는 인증, 회계, 데이터 보호 등과 같은 핵심적인 기업 보안 필수요건을 위한 중앙 보안 정책 관리 기능을 제공합니다. Apache Ranger는 Hadoop의 배치, 대화형 SQL 및 실시간 기능에서부터 Hadoop 워크로드 전반에 걸쳐 조직화된 정책 시행에 대한 기본 기능을 확장합니다. 이 튜토리얼에서는 […]

Introduction Hortonworks has recently announced the integration of Apache Atlas and Apache Ranger, and introduced the concept of tag or classification based policies. Enterprises can classify data in Apache Atlas and use the classification to build security policies in Apache Ranger. This tutorial walks through an example of tagging data in Atlas and building a […]

Protegrity Avatar™ for Hortonworks®는 고급 데이터 보호 정책, 핵심 관리 및 감사를 위해 HDP 기본 보안 기능을 PVT(Protegrity Vaultless Tokenization), Extended HDFS Encryption 및 Protegrity Enterprise Security Administrator를 통해 확장합니다. Hortonworks Sandbox 애드온 및 튜토리얼용 Protegrity Avatar에서는 정책 기반 토큰화를 사용하여 필드 레벨 데이터 보호 및 보호 해제 […]

The hosted Hortonworks Sandbox from Bit Refinery provides an easy way to experience and learn Hadoop with ease. All the tutorials available from HDP work just as if you were running a localized version of the Sandbox. Here is how our “flavor” of Hadoop interacts with the Hortonworks platform: alt text Our new tutorial will […]

Introduction Hortonworks introduced Apache Atlas as part of the Data Governance Initiative, and has continued to deliver on the vision for open source solution for centralized metadata store, data classification, data lifecycle management and centralized security. Atlas is now offering, as a tech preview, cross component lineage functionality, delivering a complete view of data movement […]

Introduction In this tutorial we will walk through the process of Configuring Apache Knox and LDAP services on HDP Sandbox Run a MapReduce Program using Apache Knox Gateway Server Prerequisites Download Hortonworks 2.5 Sandbox. Complete the Learning the Ropes of the Hortonworks Sandbox tutorial, you will need it for logging into Ambari. Outline Concepts 1: […]

Introduction HDP 2.5 ships with Apache Knox 0.6.0. This release of Apache Knox supports WebHDFS, WebHCAT, Oozie, Hive, and HBase REST APIs. Apache Hive is a popular component used for SQL access to Hadoop, and the Hive Server 2 with Thrift supports JDBC access over HTTP. The following steps show the configuration to enable a […]

모든 시스템의 보안을 위해서는 보호 레이어를 구현해야 합니다. 일반적으로 ACL(Access Control List)이 데이터에 적용되어 승인된 엔터티로의 데이터에 대한 액세스가 제한됩니다. 데이터에 대한 모든 액세스 레이어에 ACL을 적용하는 것은 시스템 보안에 있어 중요한 요소입니다. Hadoop의 레이어가 이 다이어그램에 도식화되어 있으며 […]

보안 및 거버넌스

Introduction Hortonworks has recently announced the integration of Apache Atlas and Apache Ranger, and introduced the concept of tag or classification based policies. Enterprises can classify data in Apache Atlas and use the classification to build security policies in Apache Ranger. This tutorial walks through an example of tagging data in Atlas and building a […]

Introduction Hortonworks introduced Apache Atlas as part of the Data Governance Initiative, and has continued to deliver on the vision for open source solution for centralized metadata store, data classification, data lifecycle management and centralized security. Atlas is now offering, as a tech preview, cross component lineage functionality, delivering a complete view of data movement […]

데이터 전문가 및 분석가용 Hadoop

Hadoop에서 데이터 분석을 시작하십시오. 다음 튜토리얼은 Hadoop을 통해 데이터를 최대한 활용할 수 있도록 지원하기 위한 것입니다.

파트너 제공 서비스

소개: 내장된 BI 보고 도구인 JReport를 활용하면 Apache Hive JDBC 드라이버를 사용하여 Hortonworks Data Platform 2.3에서 손쉽게 데이터를 추출하고 시각화할 수 있습니다. 이후에 보고서, 대시보드 및 데이터 분석을 생성할 수 있으며, 이러한 항목을 나만의 애플리케이션에 포함할 수 있습니다. 이 튜토리얼에서는 다음 단계를 살펴봅니다. […]

Pivotal HAWQ는 HDP(Hortonworks Data Platform)의 고도로 병렬화된 시스템 학습 기능과 결합되어 짧은 대기 시간으로 분석 SQL 쿼리를 전달할 수 있는 강력한 지원 기능을 제공합니다. HAWQ는 세계 최고급 SQL on Hadoop 도구입니다. HAWQ는 밀리초 단위의 쿼리 응답 시간으로 MADlib라는 광범위한 데이터 과학 라이브러리를 통해 가장 풍부한 SQL 언어를 제공합니다. HAWQ에서는 검색 기반 분석 […]

Introduction to Data Analysis with Hadoop

Introduction Hadoop has always been associated with BigData, yet the perception is it’s only suitable for high latency, high throughput queries. With the contribution of the community, you can use Hadoop interactively for data exploration and visualization. In this tutorial you’ll learn how to analyze large datasets using Apache Hive LLAP on Amazon Web Services […]

Introduction R is a popular tool for statistics and data analysis. It has rich visualization capabilities and a large collection of libraries that have been developed and maintained by the R developer community. One drawback to R is that it’s designed to run on in-memory data, which makes it unsuitable for large datasets. Spark is […]

This Hadoop tutorial shows how to Process Data with Hive using a set of driver data statistics.

This Hadoop tutorial shows how to Process Data with Apache Pig using a set of driver data statistics.

How to use Apache Tez and Apache Hive for Interactive Query with Hadoop and Hortonworks Data Platform 2.5

이 튜토리얼에서는 Windows 7에서 Hortonworks ODBC 드라이버를 설치하고 구성하는 방법에 대해 살펴봅니다.

이 Hadoop 튜토리얼에서는 Pig를 사용하여 작업하는 방법을 파악하고 Pig 스크립트를 생성하여 필수 데이터 운영 및 작업을 실제로 수행해 볼 수 있습니다.

This Hadoop tutorial shows how to use HCatalog, Pig and Hive to load and process data using a driver data statistics.

Learn how to visualize data using Microsoft BI and HDP with 10 years of raw stock ticker data from NYSE.

이 튜토리얼에서는 Sandbox를 Talend에 연결하여 Hadoop 환경에 맞는 테스트 데이터를 빠르게 구축하는 방법에 대해 알아봅니다.

이 튜토리얼에서는 사용자에게 Revolution R Enterprise를 소개하고 Hortonworks Sandbox와 함께 사용하는 방법을 소개합니다. ODBC를 사용하여 Sandbox에서 데이터 파일을 추출한 다음 Revolution R Enterprise 내의 R 함수를 사용하여 분석합니다.

소개: Qlik™에서 개발한 QlikView(Business Discovery Tools) 튜토리얼의 사용을 환영합니다. 이 튜토리얼은 몇 분 만에 QlikView에 연결하여 Hortonworks Sandbox 또는 HDP(Hortonworks Data Platform)에서 데이터에 액세스할 수 있도록 돕기 위한 것입니다. QlikView를 통해 개인 맞춤화된 분석을 즉시 얻고 Sandbox의 데이터에 대한 인사이트를 찾을 수 있습니다. […]

Real World Examples

This tutorial will cover the core concepts of Storm and the role it plays in an environment where real-time, low-latency and distributed data processing is important.

온라인 고객이 구매를 완료할 확률을 높이려면 어떻게 해야 할까요? Hadoop을 사용하면 방문객이 웹사이트에서 행동하는 방법을 더 쉽게 분석한 후 변화시킬 수 있습니다. 여기서 온라인 소매업체가 구매 경로를 최적화하여 이탈율을 줄이고 전환율을 높이는 방법을 볼 수 있습니다. HDP는 웹사이트 클릭스트림 데이터를 캡처하고 개선하여 회사의 전자 상거래 목표를 초과 달성하는 데 도움이 될 수 있습니다. 이 동영상과 함께 제공되는 튜토리얼에서는 HDP를 사용하여 원시 클릭스트림 데이터를 개선하는 방법에 대해 설명합니다.

보안 위반은 어느 상황에서나 발생할 수 있습니다. 보안 위반이 발생하면 보안 로그를 분석하여 위협을 확인하고 미래에 스스로를 더 효과적으로 보호할 수 있습니다. Hadoop이 법적 조사(forensics)의 속도를 높이고 로그 데이터를 더 오래 보존하고 IT 정책 준수를 입증하여 서버 로그 분석을 한 단계 격상시키는 방법에 대해 알아보십시오. 이 동영상과 함께 제공되는 튜토리얼에서는 HDP를 사용하여 원시 서버 로그 데이터를 개선하는 방법에 대해 설명합니다.

Hadoop을 사용해 Twitter, Facebook 및 기타 소셜 미디어 대화에서 데이터를 마이닝하여 귀사와 경쟁사에 대해 고객이 어떻게 생각하는지 분석할 수 있습니다. 더 많은 소셜 빅 데이터로 더 분명한 목표를 갖고 실시간으로 결정을 내릴 수 있습니다. 이 동영상과 함께 제공되는 튜토리얼에서는 HDP를 사용하여 원시 Twitter 데이터를 개선하는 방법에 대해 설명합니다.

기계는 많은 것을 알고 있습니다. 센서는 항상 켜져 있으면서 데이터를 저렴하게 스트리밍니다. Hadoop은 더 쉽게 데이터를 저장하고 정리하여 중요한 패턴을 식별하는 데 도움을 주며, 예측 분석을 사용하여 비즈니스에 관한 능동적인 결정을 내리는 데 필요한 통찰력을 제공합니다. Hadoop을 사용해 난방, 환기 및 냉방 데이터를 분석하여 이상적인 사무실 온도를 유지하고 비용을 최적화하는 방법에 대해 알아보십시오.

RADAR은 ITC Handy 도구(NLP 및 Sentiment Analysis 엔진)와 Hadoop 기술을 활용하여 구축된 소매업체용 소프트웨어 솔루션으로 …

소개: H2O는 빅 데이터에 대한 예측 분석을 위해 0xdata 메모리 솔루션의 오픈 소스입니다. 또한 강력한 알고리즘을 분산 및 병렬화하는 수학 및 시스템 학습 엔진으로, 보다 향상된 예측과 더 빠르고 정확한 모델을 생성할 수 있게 합니다. R 및 JSON과 같은 익숙한 API뿐 아니라 […]

파트너 제공 통합 안내서

다음 튜토리얼에서는 파트너 애플리케이션과의 핵심 통합점에 대해 설명합니다.

이 튜토리얼에서는 Hortonworks Sandox에 구축된 Datameer Playground를 사용하여 소매업체 고객에 대한 전방위적 시각을 확보하는 방법에 대해 알아봅니다.

이 튜토리얼에서는 Hortonworks Sandbox 내에서 ETL을 실행하고 MapReduce 작업을 구성하는 방법에 대해 알아봅니다.

이 튜토리얼에서는 Sandbox를 Talend에 연결하여 Hadoop 환경에 맞는 테스트 데이터를 빠르게 구축하는 방법에 대해 알아봅니다.

Cascading Pattern을 사용하여 SAS, R, MicroStrategy에서 Hadoop으로 PMML(Predictive Models)을 신속히 마이그레이션하고 대규모 환경에 배포하는 방법을 알아봅니다.

BIRT(Business Intelligence and Reporting Tools)를 구성하여 Hortonworks Sandbox에서 데이터에 액세스하는 방법을 알아봅니다. BIRT는 250만 이상의 개발자가 사용하는 도구로, 개인 맞춤형 인사이트 및 분석을 Java/J2EE 애플리케이션에서 신속히 확보할 수 있도록 합니다.

Hortonworks Sandbox Version 2.0(Hortonworks Data Platform 2.0 포함)을 Hunk™: Splunk Analytics for Hadoop에 연결합니다. Hunk에서는 Hadoop에 기본적으로 상주하는 데이터를 신속하게 탐색, 분석 및 시각화하는 통합형 플랫폼을 제공합니다.

Hortonworks Sandbox를 통해 제품(SQL Anywhere, Sybase IQ, BusinessObjects BI, HANA 및 Lumira)의 SAP Portofolio를 설정하여 비즈니스 속도로 빅 데이터를 사용하는 방법에 대해 알아봅니다.

MicroStrategy는 Apache Hive(ODBC 연결을 통해)를 Hadoop에서 실제적인 SQL 액세스 표준으로 사용합니다. 여기에는 MicroStrategy에서 Hadoop 및 Hortonworks Sandbox로의 연결을 구축하는 방법이 설명되어 있습니다.

이 튜토리얼에서는 사용자에게 Revolution R Enterprise를 소개하고 Hortonworks Sandbox와 함께 사용하는 방법을 소개합니다. ODBC를 사용하여 Sandbox에서 데이터 파일을 추출한 다음 Revolution R Enterprise 내의 R 함수를 사용하여 분석합니다.

Learn how to visualize data using Microsoft BI and HDP with 10 years of raw stock ticker data from NYSE.

소개: Qlik™에서 개발한 QlikView(Business Discovery Tools) 튜토리얼의 사용을 환영합니다. 이 튜토리얼은 몇 분 만에 QlikView에 연결하여 Hortonworks Sandbox 또는 HDP(Hortonworks Data Platform)에서 데이터에 액세스할 수 있도록 돕기 위한 것입니다. QlikView를 통해 개인 맞춤화된 분석을 즉시 얻고 Sandbox의 데이터에 대한 인사이트를 찾을 수 있습니다. […]

how to get started with Cascading and Hortonworks Data Platform using the Word Count Example.

소개: H2O는 빅 데이터에 대한 예측 분석을 위해 0xdata 메모리 솔루션의 오픈 소스입니다. 또한 강력한 알고리즘을 분산 및 병렬화하는 수학 및 시스템 학습 엔진으로, 보다 향상된 예측과 더 빠르고 정확한 모델을 생성할 수 있게 합니다. R 및 JSON과 같은 익숙한 API뿐 아니라 […]

RADAR은 ITC Handy 도구(NLP 및 Sentiment Analysis 엔진)와 Hadoop 기술을 활용하여 구축된 소매업체용 소프트웨어 솔루션으로 …

이 튜토리얼에서는 Sqrrl 및 HDP를 통해 그래프 데이터를 로드하고 분석하는 방법에 대해 살펴봅니다. Sqrrl은 HDP 2.1을 실행하여 Hortonworks Sandbox와 파트너십을 맺으면 최신 Sqrrl Test Drive VM을 사용할 수 있다고 발표했습니다! 이를 통해 사용자는 원활하게 Sqrrl의 기능을 […]

This use case is the sentiment analysis and sales analysis with Hadoop and MySQL. It uses one Hortonworks Data Platform VM for the twitter sentiment data and one MySQL database for the sales
data.

Protegrity Avatar™ for Hortonworks®는 고급 데이터 보호 정책, 핵심 관리 및 감사를 위해 HDP 기본 보안 기능을 PVT(Protegrity Vaultless Tokenization), Extended HDFS Encryption 및 Protegrity Enterprise Security Administrator를 통해 확장합니다. Hortonworks Sandbox 애드온 및 튜토리얼용 Protegrity Avatar에서는 정책 기반 토큰화를 사용하여 필드 레벨 데이터 보호 및 보호 해제 […]

Download the turn-key Waterline Data Sandbox preloaded with HDP, Waterline Data Inventory and sample data with tutorials in one package. Waterline Data Inventory enables users of Hadoop to find, understand, and govern data in their data lake. How do you get the Waterline Data advantage? It’s a combination of automated profiling and metadata discovery, and […]

The hosted Hortonworks Sandbox from Bit Refinery provides an easy way to experience and learn Hadoop with ease. All the tutorials available from HDP work just as if you were running a localized version of the Sandbox. Here is how our “flavor” of Hadoop interacts with the Hortonworks platform: alt text Our new tutorial will […]

Hadoop is fast emerging as a mainstay in enterprise data architectures. To meet the increasing demands of business owners and resource constraints, IT teams are challenged to provide an enterprise grade cluster that can be consistently and reliably deployed. The complexities of the varied Hadoop services and their requirements make it more onerous and time […]