Oracle mang big data trở lại cho các nhà quản trị cơ sở dữ liệu

Ngoc Huynh

Oracle Data Integrator dành cho Big Data đưa ra cho các DBA một cái nhìn quen thuộc hơn về các bộ sưu tập dữ liệu lớn (big data).

Hiện nay có nhiều công ty đã thấy được giá trị của các phân tích dữ liệu lớn, đây có thể là lúc để các quản trị viên cơ sở dữ liệu và quản lý kho dữ liệu tham gia vào vấn đề này.

Oracle đã công bố một sự mở rộng dành cho phần mềm trung gian (middleware) Oracle Data Integrator, Oracle Data Integrator cho phép các DBA và các chuyên gia kho dữ liệu xử lý các repos của dữ liệu lớn như là một nguồn dữ liệu khác, song song với các kho dữ liệu và các cơ sở dữ liệu có cấu trúc.

Oracle Data Integrator dành cho Big Data “làm cho một lập trình viên không phải về Hadoop ngay lập tức chọn Hadoop,’ ông Jeff Pollock – phó chủ tịch quản lý sản phẩm của Oracle nói.

Các hình thức dữ liệu lớn chẳng hạn như Hadoop và Spark ban đầu chủ yếu dành cho các nhà lập trình hơn là các DBA, sử dụng các ngôn ngữ như Java và Python, ông Pollock nói. Bây giờ các phân tích dữ liệu truyền thống của các công ty đã được quản lý bởi các DBA trên quy mô lớn và các chuyên gia về ETL (các công cụ dành cho thu gôm, chuyển đổi và cập nhật dữ liệu), sử dụng các công cụ chẳng hạn như SQL và các giao diện hướng trực quan của lập trình kéo-nhả.

Data Integrator dành cho Big Data mở rộng ODI của Oracle để xử lý các nguồn dữ liệu lớn.

ODI cung cấp khả năng cho các tổ chức kết hợp dữ liệu với nhau từ nhiều nguồn và các dạng thức, chẳng hạn như các dữ liệu liên quan có trong cơ sở dữ liệu của IBM và Microsoft, và các tài liệu thường trú trong kho dữ liệu của Teradata. Do đó đây là một bước tự nhiên để kết nối vào các repo của dữ liệu lớn vào ODI.

Với sự mở rộng, “bạn không phải đào tạo lại quản trị viên cơ sở dữ liệu về Hive cho Hadoop. Bây giờ chúng ta có thể đưa ra một bộ công cụ mà họ sẽ quen thuộc,” ông Pollock cho biết. Quản trị viên có thể làm việc với các khái niệm quen thuộc chẳng hạn như các đối tượng và mối liên hệ, và biểu đồ dòng dữ liệu 4GL. Phần mềm “tự động tạo ra code trong nhiều ngôn ngữ cơ bản khác nhau,” cần phải hoàn thành công việc, ông Pollock cho biết.

Phần mềm có thể làm việc với bất kỳ sự triển khai Hadoop hay Spark nào, và không yêu cầu cài đặt phần mềm trên bất kỳ node dữ liệu nào. Việc sử dụng sức mạnh của điện toán phân tán, Data Integrator dành cho Big Data sử dụng các node ở nơi mà dữ liệu được lưu trữ nhằm thực hiện tất cả các nhu cầu tính toán.

Một công ty bán lẻ có thể sử dụng phần mềm để phân tích lịch sử mua hàng của khách hàng. Hệ thống thu thập dữ liệu theo thời gian thực chẳng hạn như Oracle GoldenGate 12c có thể di chuyển dữ liệu giao dịch vào một cụm (cluster) Hadoop, tại đây dữ liệu có thể được chuẩn bị phân tích bởi ODI.

Oracle không lẻ loi trong việc cố gắng làm cầu nối cho các công cụ dữ liệu lớn mới với phần mềm phân tích dữ liệu truyền thống. Vào tuần trước, Hewlett-Packard đã công bố một gói phần mềm cho phép các khách hàng tích hợp cơ sở dữ liệu phân tích Vertica của HP với IDOL của HP Autonomy, cung cấp một phương thức cho các tổ chức để phân tích một lượng lớn các dữ liệu không có cấu trúc nhanh chóng.

Chia sẻ bài viết ngay

Nguồn bài viết : http://www.itnews.com/