Chúng ta, một thế hệ sợ hãi – Sợ mọi thứ trên Internet và cũng sợ không xuất hiện trên Internet


hạm vào người đọc và khiến chúng ta rung động hơn cả trong tiểu thuyết Rừng Na Uy, có lẽ là đoạn văn Haruki Murakami viết về một đêm mưa tháng Tư, trong căn phòng của Naoko, ngày sinh nhật cô 20 tuổi. Cô đã sợ hãi đến mức cần nhân vật chính Toru vỗ về bằng thân thể. Và họ đã chia sẻ, vượt qua nỗi sợ cùng nhau, bằng các hành động nguyên sơ nhất, nhưng cũng phát xuất từ những hiểu biết sâu sắc nhất về nhau, tích tụ từ những tháng năm thơ dại. Rất nhiều bạn trẻ đã tìm thấy sự đồng cảm ở đêm mưa ấy. Bởi tất cả chúng ta ít nhiều từng phải trải qua nỗi sợ tuổi trẻ của Naoko, thời điểm mà sự trưởng thành chỉ là một màn đêm tăm tối, mơ hồ.

Tuy vậy, nếu cần một sự so sánh, có lẽ những người trẻ thế kỷ 21 – những người sinh ra và lớn lên cùng Internet, smartphone và mạng xã hội – đang phải đối diện với màn đêm sâu thẳm hơn, vô định hơn, khi giai đoạn trưởng thành của chúng ta cộng hưởng thêm nhiều nỗi sợ mới.

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 2.

Người trẻ vẫn luôn phải sống cùng nỗi băn khoăn và sợ hãi vô hình về sự tồn tại. Nhưng có lẽ, so với những người trẻ như Naoko và Toru của thế kỷ trước, ngày nay nỗi sợ đó biểu hiện rõ ràng hơn, đa diện hơn. Đơn giản, bên cạnh đời sống thực tế, chúng ta có thêm môi trường hiện diện mới: Thế giới mạng.

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 3.

 

Những phát kiến khoa học mở ra trước mắt chúng ta một vũ trụ mênh mông vô tận. Nhưng nhận thức về sự nhỏ bé chỉ thật sự đến khi ta tiếp xúc với mạng xã hội. Không còn quẩn quanh trong các mối quan hệ gần gũi, ta có thể mở rộng liên hệ với bất kỳ ai trên địa cầu. Ta thấy mình ở trong một vòng tròn của những mối quan hệ khổng lồ và náo nhiệt. Chúng ta là một phần của mạng lưới, nhưng nếu một ai đó biến mất thì mạng lưới ấy cũng có ảnh hưởng gì đâu. Sâu trong cảm thức, mỗi cá nhân dần nhận biết sự tồn tại của chính mình bấp bênh và bé mọn thế nào.

Từ đây, nỗi sợ hình thành, biểu hiện theo hai hướng: Sợ mọi thứ trên Internet, và sợ không xuất hiện trên Internet. Không gian ảo vừa là nguồn gốc, vừa là xúc tác cho nhiều nỗi sợ khác nhau.

Internet và mạng xã hội đem đến cảm giác tự do. Chúng ta tin mình nắm quyền chủ động. Thực tế chúng ta lại bị chi phối bởi chính mạng lưới ấy. Hãy quan sát hoạt động trong ngày của một người trẻ: Sáng mở mắt, việc đầu tiên ta làm là chộp lấy điện thoại kiểm tra tin nhắn. Vừa ăn sáng, ta vừa dán mặt đọc email, kiểm tra xem ai like bài/ ảnh của ta trên Facebook, Twitter, Instagram. Ở giảng đường hay nơi làm việc, chốc chốc ta liếc mắt qua trang báo mạng ưa thích xem có tin tức gì mới. Và tất nhiên, sao có thể cưỡng lại sức hấp dẫn của news feed, rồi ta cần thả tim, gõ vài bình luận dưới một clip hay một bức ảnh… Những hành động ấy lặp đi lặp lại tới khi ta vào giường ngủ. Trong tâm trí ta là dòng chảy liên tục của những hình ảnh, lời bình luận, số lượng like, cân nhắc xem sẽ phải đăng lên một thông tin nào để chung quanh chú ý và tương tác. Nhìn sâu hơn, đấy chính là nỗi ám ảnh về sự hiện diện. Viễn ảnh phải nằm ngoài các cuộc bàn tán và các sự kiện nóng sẽ khiến ta lo ngại, giống như bị lãng quên.

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 4.

 

Từ âm thanh sinh học phát ra cho đến ngôn ngữ là hàng vạn năm. Từ ngôn ngữ cho đến truyền thanh là hàng ngàn năm. Từ truyền thanh đến truyền hình là hàng chục năm. Nhưng từ truyền hình đến Internet chỉ vỏn vẹn chưa đầy mười năm. Internet phát triển quá nhanh, vượt qua nhận thức về thời gian của con người. Các nhà khoa học cho biết bộ não con người không được thiết kế để chịu đựng các thay đổi trong cách thức liên lạc nhanh đến vậy. Như một phản ứng phòng vệ, các nỗi sợ hãi mới sinh ra một cách tự nhiên, được gọi bằng cái tên khá hợp thời là iFear. Bạn cho rằng cái tên này “ăn theo” các sản phẩm của Apple, hay diễn dịch thành Internet Fear, cũng đều hợp lý.

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 5.
Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 6.

 

Những năm 90, ở Nhật xuất hiện khái niệm Hikikomori – những người trẻ chỉ muốn sống trong 4 bức tường, không đi học đi làm, không giao tiếp xã hội, và tất nhiên không lập gia đình. Vốn dĩ họ giống như mọi người bình thường khác. Nhưng do một sự kiện nào đó, thường là áp lực từ gia đình hoặc xã hội, khiến họ trở nên sợ hãi thế giới ngoài kia, từ chối trở thành một phần trong đó. Hikikomori thường được dùng làm ví dụ cho mặt trái của đời sống hiện đại. Trong mắt một Hikikomori, bước ra thế giới bên ngoài giống như lạc vào hành tinh xa lạ.

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 7.

 

Ở một lẽ nào đó, môi trường Internet là xúc tác cho nhiều nỗi sợ của các Hikikomori thế kỷ 21. Nhiều bạn trẻ cho biết họ cảm thấy thế giới là nơi cực kỳ nguy hiểm. Năm 2016, sau cuộc khảo sát ở hơn 100 nước với hàng trăm ngàn người tham gia, tờ Rolling Stone nhận định: “Chúng ta đang sống trong kỷ nguyên sợ hãi”. Hầu hết người được hỏi đều cho rằng thế giới hiện tại quá nhiều hiểm nguy, từ bệnh tật, tội phạm, thảm họa môi trường cho đến khủng bố, chiến tranh… Không tin ư? Hãy mở máy tính hay điện thoại lên, xem thông tin nào đầu tiên đập vào mắt bạn!

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 8.

 

Phân tích thêm các nỗi lo sợ bắt nguồn từ Internet, có thể thấy người trẻ chúng ta vừa là thủ phạm, vừa là nạn nhân của chính mình. Mạng xã hội tiềm ẩn nhiều mối đe dọa. Những kẻ bắt nạt ngoài đời xem ra ít đáng sợ hơn so với những kẻ bắt nạt trên mạng. Bạo lực tinh thần ngày càng nghiêm trọng hơn. Chúng ta trở nên dè chừng bởi một hình ảnh ngớ ngẩn hay câu nói dại dột nào đó của bản thân cũng có thể trở thành đề tài đàm tiếu trên Facebook. Nỗi lo âu hình ảnh và uy tín bị hủy hoại là có thật. Ta lo lắng sự riêng tư bị xâm phạm. Tuy nhiên, ta không thể dừng thói quen phơi bày các khoảnh khắc riêng tư cũng như hứng thú đào bới sự riêng tư của người khác. Ai trong chúng ta chưa từng tung lên các hình ảnh ăn uống, tiệc tùng, du lịch, thậm chí cả trong phòng ngủ?

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 9.

 

Internet và mạng xã hội là vùng đất tự do. Nhưng tính ẩn danh của nó là nguồn cơn kích hoạt rất nhiều thói xấu: Đố kị, hung hăng, khoe mẽ… Ở một khía cạnh nào đó, người sử dụng các công cụ này đều có khả năng trở lại “tính ác” nguyên thủy, sẵn sàng lao vào nhau đả kích hay hùa vào đám đông nào đó để ném đá con mồi. Bằng các thông tin thật giả lẫn lộn, Internet còn biến con người thành những con rối mang cảm xúc thái quá. Chúng ta dễ dàng nổi giận vì một tin tức vu vơ chưa kiểm chứng, nối tiếp là nỗi thất vọng, buồn nản hoặc lo âu. Chuỗi phản ứng thường xuyên này dần dần biến thành trạng thái bất ổn, lan truyền theo mạng, tạo nên một môi trường căng thẳng dù cuộc sống thực tế vẫn tiến triển theo chiều hướng tích cực.

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 10.

Khác với cha anh, thế hệ Millennials có một nhận thức mạnh mẽ về sự quý giá của thời gian. Tuổi trẻ chỉ có một lần, vậy nên có một thôi thúc mạnh mẽ về việc tận hưởng và trải nghiệm càng nhiều càng tốt. Trào lưu YOLO hay Rủ Nhau Đi Trốn là những minh chứng. Tuy nhiên, chính nỗi sợ “sống không đủ” này tạo nên kiểu áp lực mới. Nếu trước kia, cuộc sống cá nhân chỉ là của riêng mỗi người, thì nay đã khác. Chúng ta khao khát trải nghiệm nên dễ bị ảnh hưởng bởi trải nghiệm mà người khác phô bày trên mạng. Chẳng hạn như khi thấy những ai đó du lịch, thưởng ngoạn, tức khắc trong đầu ta phác thảo ngay kế hoạch lên đường. Áp lực càng đè nặng khi người xung quanh đã thực hiện xong những chuyến du hành. Ta không muốn bị bỏ lại, ta sợ hãi bị xem là kẻ lạc thời, ta muốn nếm trải những điều đang được bàn tới. Ta nỗ lực để được như thế, dù đôi khi đó không hẳn là điều thực sự cần thiết cho ta.

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 11.

 

Tương tự, việc phải sở hữu những món đồ đắt giá, tận hưởng dịch vụ cao cấp cũng trở thành một kiểu áp lực mới. Dĩ nhiên có áp lực sẽ có nỗ lực phấn đấu vươn lên. Tuy nhiên, khi chưa đạt tới “chuẩn mực”, nhiều bạn trẻ tủi thân, mặc cảm, buồn bã và cả lo sợ. Sống ảo là một giải pháp cho tình thế này. Thực sự, khi đọc những bài bóc mẽ ai đó sử dụng hàng fake, dùng đồ đi mượn để sống ảo, có lẽ chúng ta nên cảm thông hơn là chế giễu. Bởi sâu xa, những người trẻ ấy cũng là nạn nhân của nỗi ám ảnh từ thế giới mạng mà thôi.

Chưa có thời đại nào mà đòi hỏi về diện mạo tác động đến từng cá nhân sâu sắc như hiện tại. Xấu xí, kém hấp dẫn, không hợp thời trở thành nỗi lo sợ không riêng với các cô gái mà cả các chàng trai. Bạn có cằm V-line chưa? Da bạn không trắng trẻo nhỉ? Bạn xấu hổ không khi quá to béo? Sao bạn dám khoác lên người bộ thời trang năm một ngàn chín trăm hồi đó? Những vụ “bóc phốt” sự khác biệt giữa hình ảnh thật ngoài đời và hình ảnh trên mạng không hoàn toàn đem đến tiếng cười. Nhìn sâu vào các sự vụ ấy, ta nhận ra cách mà thế giới mạng đang điều khiển chúng ta, mang đến vô số hệ lụy chua chát.

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 12.

 

Nhưng có lẽ, không có nỗi sợ nào kinh khủng bằng nỗi sợ “không thành công”. Các nhà xã hội học chỉ ra đây chính là căn bệnh của thời đại. Định nghĩa thành công thời hiện tại đã thay đổi rất xa. Ngoài việc đạt được các mục tiêu về vật chất hay sự nghiệp, giờ đây, thành công còn hàm chứa nhu cầu được công nhận, được xã hội xung quanh ngưỡng mộ. Không đạt được mục tiêu này, hay nhận ra năng lực của bản thân có giới hạn, nhiều người trong số chúng ta rơi vào nỗi thất vọng sâu thẳm. Ta sợ hãi trước viễn cảnh mãi mãi là một kẻ nhỏ bé thoáng qua, một hình nhân vô nghĩa giữa cuộc đời. Vì sao tôi không được sinh ra ở gia đình tốt hơn? Vì sao tôi không giỏi giang như người khác? Hay vì sao tôi không thể may mắn như họ? Thay vì là động lực thúc đẩy phấn đấu, những câu hỏi ấy lại khiến rất nhiều người trẻ hôm nay dằn vặt bất an và mặc cảm nhiều hơn.

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 13.

Sợ là một phần bản năng con người. Chúng ta sinh ra với nỗi sợ được in trong nếp não, ghi trong mã gene. Bất kỳ ai cũng có giấc mơ bị săn đuổi hoặc rơi xuống từ trên cao – những ký ức tổ tiên truyền lại trong tiềm thức. Thời nguyên thủy, sợ hãi là công cụ sinh tồn mạnh mẽ. Nhờ có nỗi sợ, tổ tiên chúng ta đã không lao vào đầm lầy hay khu rừng đầy thú ăn thịt, không tự đốt mình khi đám lửa bùng lên.

Vậy, có nghịch lý không khi chúng ta đang sống trong một thế giới an toàn hơn, tuổi thọ con người ngày một cao hơn, sao nỗi sợ hãi vẫn không mất đi? Nhưng đó chính là quy luật: Cùng sự phát triển của xã hội loài người, các nỗi sợ cũng phát triển theo, thay hình đổi dạng. Theo thống kê của trang The Phobias List, có 530 nỗi sợ hãi từng được gọi tên. Bạn sẽ nhận ra gần như mỗi điều trong cuộc sống đều gắn liền với một nỗi sợ. Trong thời đại Internet, hàng trăm nỗi sợ mới sinh ra, gắn liền với các thiết bị và công nghệ hiện đại.

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 14.

 

Không có gì lạ khi các nỗi sợ lớn nhất của thế kỷ 21 đều liên quan đến trạng thái cô đơn và mất kết nối. Bởi vì đặc trưng của thời đại này là cuộc cách mạng công nghệ và thông tin liên lạc, lại diễn ra với tốc độ chóng mặt. Cũng giống như tổ tiên từng đắn đo trước một vùng đất lạ, bộ não chúng ta đang tiết ra những chất hóa học âu lo để nhắc nhở, ghìm cương ta lại trước một thế giới mới mẻ nhưng cũng đầy rẫy nguy cơ.

Có một nhận thức về nỗi sợ hãi rất hữu ích, được khái quát bằng câu nói nổi tiếng của Franklin D. Roosevelt: “Không có gì đáng sợ bằng bản thân nỗi sợ.” Nỗi sợ không ở ngoài kia, mà nằm ngay bên trong chúng ta. Nỗi sợ là thứ thuộc về tinh thần, vì thế chúng ta sẽ vượt qua nó bằng chính sức mạnh tinh thần.

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 15.

Cách duy nhất để chiến thắng sợ hãi là đối mặt với nó. Trốn chạy không phải là lựa chọn. Hẳn bạn còn nhớ câu nói của người học trò với thầy trong phim The Karate Kid: “Con vẫn muốn lên thi đấu vì con còn sợ. Con không muốn ngày hôm nay kết thúc mà con vẫn còn nỗi sợ này. Dù thắng hay thua, con vẫn phải làm để con không còn sợ nữa.” Hãy xác định bản chất của mỗi nỗi sợ và tìm cách tháo gỡ. Đừng xem nhẹ nỗi sợ, vì nó là mầm mống của những thứ tồi tệ hơn như trầm cảm, rối loạn nhân cách. Hãy đối xử với nỗi sợ của bạn như một vết thương. Cần quan sát, điều trị cho đến khi vết thương ấy khép miệng, trả lại cho bạn tinh thần lành lặn thực sự.

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 16.

 

Hiểu được cách thức thế giới mạng tác động đến trí óc, ta có thể ngăn chặn các tác nhân gây nên suy nghĩ tiêu cực và bi quan. Biết được cách vận hành, những lợi ích lẫn tác hại của Internet, cơ chế tạo ra các cảm xúc tiêu cực, những điều có thể tận dụng và những điều cần tránh, ta có thể tự hình thành cơ chế phòng vệ cho mình. Bằng cách bỏ theo dõi các trang mạng ồn ào, rời khỏi các hội nhóm gây tranh cãi, tập trung nhiều hơn vào những thói quen mang đến niềm vui thực chất, chính là cách ta tạo nên bầu khí quyển lành mạnh cho tinh thần. Ta cũng đừng quên, bảo vệ nhân cách thực của chính mình quan trọng hơn việc xây dựng sự nổi tiếng bằng các thủ thuật mạng, cho dù sự nổi tiếng ấy là thứ nhiều người ước ao.

Và căn cơ hơn hết, ta cần có được sự cân bằng và an tâm về mặt tinh thần trong một thế giới không ngừng biến đổi. Đó có thể là niềm tin tôn giáo, một hứng thú nghệ thuật, hay cũng có thể là việc tìm kiếm, đào sâu thế giới bên trong chính mình. Nhưng quan trọng hơn cả, chúng ta cần duy trì mối liên hệ thực sự với những người xung quanh, như gia đình, bạn bè, như một ai đó ta hằng thương yêu. Nhất định phải có một ai đó để ta có thể chuyện trò, giãi bày vấn đề của bản thân. Và ta hãy mở lòng lắng nghe, chia sẻ với người khác khi họ gặp đe dọa…

Trên hành trình trưởng thành, cách hiệu quả nhất giúp ta vượt qua mọi hố thẳm sợ hãi, đơn giản là sống thật.

Bạn có thể bước ra khỏi thế giới ảo, để sống thật là mình, theo đúng cách bạn muốn không?

 

Chúng ta, một thế hệ sợ hãi - Sợ mọi thứ trên Internet, và cũng sợ không xuất hiện trên Internet - Ảnh 17.
Bài Viết:Nam Lâm
Minh Họa:Vũ Tuấn Anh
Thiết Kế:Vinh Hồ
Advertisements

.NEXT 2017 Product and Technology Announcement Summary


 

Nutanix-6-Node-4U-NX-1065G4

What an amazing week in Washington D.C. for Nutanix .NEXT 2017! Although much of the focus was around our partnership with Google, Nutanix Calm automation and Xi cloud services, we also made plenty of really cool advancements in core Acropolis and AHV features and functions that will be available in a forthcoming release. All off this is part of our vision and journey to the Enterprise Cloud that starts with having a Cloud OS that provides a single fabric to bridge the gap between public and private clouds. One OS, One Click. If you were unable to join us in DC, here is a link to our Chief Product and Development Officer, Sunil Potti’s keynote that ties it all together.

In general the theme of the next planned release will be “enterprise cloud,” the features and functions that will be included in the releases will serve as connection points to Calm and Xi and will round out all the fundamental features required to operate and manage a hybrid enterprise cloud. The title says “summary” but this blog is packed full of features and enhancements to make things a little easier to digest it is organized into the following categories: AOS Core Datapath, Prism, AHV, Networking, and Tooling & Technologies.

Core Data Path (CDP)m

Core data path encompasses all the foundational hyper-converged infrastructure (HCI) functionality found in Acropolis Operating System (AOS) software, including storage services, availability, and data protection. Below you will find descriptions of a few of the new CDP features currently under development that were covered during the keynotes.

Near Sync Replication

AOS has long included the capability for synchronous and asynchronous replication as part of base data protection features. The existing sync-rep features provide for a near 0 RPO but are limited by the physics of bandwidth, latency, and distance. Async-rep does not have those limitations but was limited to a 60 minute RPO.

At the show we announced a major technology improvement called near-sync, which enables 1 minute RPO configurations without restrictions on latency or distance. For near-sync, AOS is leveraging a new Light Weight Snapshot (LWS) technology. LWS reduces overhead in managing metadata and increases storage performance by reducing the high number of storage IO operations caused by long snapshot chains.

Check out this blog post by Dwayne Lessner (@dlink7) for some additional detail.

Software Data at Rest Encryption (DaRE)

Nutanix has had support for hardware based encryption based on SED drives since our 4.1 release in 2014. What we will be introducing is the ability to deliver a similar level of security via a software solution without the additional expense of the SED drives. The initial release of the new solution will still require the use of a third party key management server (KMS), but native key management support will follow soon after. This solution will still be FIPS 140-2 certified, meeting the most stringent encryption regulations.

1- and 2-Node Remote, Branch and Edge Configurations

Remote office configurations can vary greatly based on workloads and business cases being solved. Currently, a Nutanix solution has the minimum requirement of 3 physical node (servers) to create a standard cluster. This is mostly due to how the local data protection and metadata functions are delivered. Requiring three nodes caused a situation where though there was a desire for an HCI solution with the elegance of Nutanix management and data protection features it could be difficult to justify three nodes for the smaller remote or edge workloads. The hardware and resource capacity would far outweigh the need.

At .NEXT we announced a new platform with support for 1- or 2-node deployments that is better suited to the capacity and availability requirements in these remote locations. The added benefit is that the ROBO and general datacenter deployed Nutanix clusters will all be centrally managed through Prism and leverage a common set of replication and data protection features.

Prism and Prism Pro

An overarching theme of One click, One OS was heard at .NEXT and our Prism Central (PC) management is the focus of that strategy. PC provides multi-cluster management and is the aggregation point for performance and usage metrics. This makes it the ideal location for our existing and future analytics based on our patent pending X-fit machine learning technology that are included as part of the Prism Pro feature set. In this section, I’ll cover a number of important enhancements that will be released in Prism.

Prism Central 1-Click Deploy

With the importance of PC, we had to make it easier for our customers to deploy. Existing customers already have Prism Element management available on every Nutanix node as a component of our controller VM (CVM) and our next release will include 1-click deployment for PC. The new PC deployment model will allow for a distributed and scalable PC that mimics how the Nutanix scales the virtualization and storage nodes. PC can be deployed as a single VM or for higher availability and increased scale, a 3 node clustered PC instance can be deployed automatically. This is a stark contrast to other virtualization management platforms that are lacking in availability features and complex to scale.

Prism Pro Scheduled Reporting

Communication is the key to any successful enterprise. In the IT world there are many stakeholders that would benefit from operational insights from the virtualization platform. Our customers know that Prism and Prism Central provide very rich monitoring and analytics, but that information is only available via the GUI. The next release will leverage existing custom dashboards and other reports combined with the ability to schedule the creation and delivery of email based reports based on that content.

Prism Pro VM Right Sizing

Entire products have been created around solving the problems of inefficient resource allocation and usage. Who hasn’t been in the situation where an application owner insists on a large resource allocation and only later to find that the VM never used a fraction of the RAM or CPU requested or spending time hunting for those unused or zombie VMs that were decommissioned but never really deleted? This is an area where our Xfit analytics and tightly integrated HCI platform really shine.

With such granular visibility across both virtualization and storage, it will be possible to create highly accurate VM sizing recommendations. Prism Pro will report on those zombie VMs and identify both over provisioned or resource constrained VMs and provide a recommended ideal allocation based on historical and observed behavioral characteristics. This gives the operations teams and application owners a high level of confidence in the applications getting peak performance while also optimizing VM density which in the end is a cost savings.

Prism Pro Dynamic Alerting / Anomaly Detection

Traditional monitoring based on thresholds and baselines are a working solution but there are many situations it’s not enough. Consider a sudden jump or shift in a performance metric that is still below a configured threshold, no alarm would be triggered. This could be a symptom of an impending problem that an operator would prefer to address before it becomes an emergency. Its no surprise that Nutanix is introducing dynamic threshold based alerting. Operators can now be alerted when key performance indicators (KPI) deviate from the norm. This takes the guesswork out of alert/alarm configuration and filtering.

Prism Pro Scheduled Upgrades

Some features and functions are cooler than others. But even the most mundane tasks can be huge consumers of valuable staff resources. Prism Central has always been our solution for multi-cluster monitoring. In our 5.x release it also became a central location for VM management for both AHV and ESXi based VM. Each of these improvements has made multi-cluster Nutanix management simpler and more efficient. Continuing on that course we will expand on the existing ability to kick of individual cluster upgrades with schedules. By adding schedules the operators can pre-stage upgrades during planned maintenance across 1 or more clusters. The enhancement will allow granular configuration of the process that includes choice of serial vs parallel upgrades and the ability to pause further actions should the upgrades cross out of the planned window. This automation frees up operators to spend time on higher value tasks vs just babysitting an upgrade progress bar.

AHV

AHV has seen a massive number of enhancements and improvements over the last few releases. This is apparent to our customers (over 23% of nodes shipped last quarter, based on a rolling four quarter average, are running AHV) that are using it, but AHV is not just the open source KVM hypervisor with some fancy dressing. Our goal from the beginning was two fold: provide the same level of consumer grade management for virtualization that has been delighting our customers that use Prism for our HCI platform management and leverage AHV as a deeper integration point for increased visibility and performance.

AHV Turbo

During the keynote, Sunil spoke about traditional hypervisor platforms being designed for a 3-tier SAN world. What isn’t as obvious is that as we move into new storage and memory technologies, the workloads need to be as close to the data as possible. Technologies like NVMe and RDMA have higher bandwidth and lower latencies than a network can provide. Though our current platform provides superior performance using the I/O data paths inherited from its KVM roots, it was obvious that we would need to make improvements for our pending support for NVMe and RDMA based hardware. From this need, AHV Turbo (internally called FRODO) was born. AHV Turbo will replace the standard KVM single queue/thread data path that was designed to generically support multiple virtual storage options with a purpose built high performance IO interface. Much like other enhancements in the Nutanix world, using AHV Turbo is non-disruptive for the operator. The only requirement is to upgrade the AOS and AHV software and instantly have a higher performing virtualization layer. If you’re curious about the details, check out this blog post for more.

AHV vGPU

If you blinked, you may have missed this important enhancement. AHV has already proven to be the hypervisor of choice for our customers deploying Citrix XenApp and XenDesktop VDI solutions, but for some use cases AHV was lacking a key function: vGPU support. We can now say that support is officially announced and customers will be able to leverage nVidia Tesla M10 and M60 GPU cards to enable higher desktop density, better graphic performance for VDI, and support high end graphics use cases like CAD when deploying Citrix VDI on Nutanix with the AHV hypervisor.

NX-9030 (RDMA & NVMe)

With the enhancements from AHV Turbo, there had to be some cool new hardware to take advantage of. We announced our next new platform focused on tier 0/tier 1 applications, the NX-9030, that will provide support for 40Gb Ethernet, NVMe flash storage and RDMA. RDMA has particular benefit to our architecture with a CVM located on each node. Without RDMA all CVM to CVM communication must traverse the virtualization stack and then go over a standard Ethernet network to a top-of-rack (ToR) switch. I mentioned earlier to take advantage of new storage technology like NVMe and the upcoming Intel 3D Xpoint new solutions would be required. We solved a portion of that with AHV Turbo, but by leveraging RDMA, CVM to CVM communications can bypass the hypervisor and copy data directly thus allowing NDFS optimal access to the new high speed storage.

Networking (SDN)

Nutanix AHV started out with the standard virtual network constructs and some really cool IP address management features (IPAM). Continuing on our convergence journey we are now expanding our software defined networking (SDN) features. What you may not know is that we use Open vSwitch (OVS) and Open Virtual Network (OVN) as our networking core. OVS and OVN share many of the same properties and features as VMware’s NSX, both having the same creator, Martin Casado. What this means for our customers is that we have a common set of primitive functions that we can both expand on and apply our Prism management 1-click philosophy to. At .NEXT we introduced the three following networking features. This is only the beginning of our networking expansion.

Network Automation

We like to talk about all the simplification benefits of HCI with regard to compute and storage, but we all know that the glue that puts it all together is the network. HCI greatly simplifies networking, as it removes the need for separate storage networks and with Nutanix even much of the network overhead because of our data locality feature. That said, there is still plenty more we can do to make the network easier to manage. We introduced a set of APIs in our AOS 5.0 release that allows 3rd party vendors do subscribe to VM provisioning and network change events. This allows the network to react to changes on the virtual machine. For example, updating a load balancing policy or altering security rules.

We have a number of our ecosystem vendors in our Nutanix Ready program that have plans to implement this functionality. To list a few: Arista, Big Switch, Brocade, Citrix, Cumulus, F5, Lenovo, Mellanox, Palo Alto Networks, Plexxi, and vArmour. Look for more announcements and specifics soon.

Service Insertion for Network Function Virtualization (NFV)

I spoke of automation above, but a key part of that automation are the functions and services provided by those ecosystem vendors. A big part of being “software defined” is the ability to surgically insert and remove services for various workloads. For the class of services that operate on network traffic, Nutanix provides a set of APIs that allows programmatic insertion of our ecosystem partner network services and set policy for how they are chained together.

This gets really cool when tied to the automation functions above. Consider an application blueprint in Nutanix Calm that specifies not just the policies, but the 3rd party service to use for enforcement. That could be security from a Palo Alto firewall or load balancing rules for a Citrix Netscaler. From the application owner’s perspective, they just create the VMs, all the other network configuration and connection happens like magic!

Network Micro-Segmentation

Traditional perimeter firewalls are great for edge defence, but those that practice security talk about “defence in depth”. This is the concept that a true security policy needs a multi-layer strategy. A common saying was it doesn’t matter if you lock the doors if all the windows are wide open. When thinking about granular network controls at the server or VM level, many have defaulted to a host based firewall. The problem with this approach is that it becomes a management challenge at scale. Even if the server OS provides the native functionality vs installing a software agent, there is still a huge overhead of policy management.

Our solution will be two fold, we leverage the fine grain controls provide by the OVS networking and couple it with a “”1-click” policy approach that separates the network attributes from the VMs and Applications. Policy makers can group VMs and Applications into categories that policies are applied to. For example, a fence can be drawn around Test/Dev and Production and then more specific policies for databases are layered in. Removing the need to know or track network details like IP addresses simplifies policy writing and enables mobility without the worry that security may be impacted.

Tooling & Technologies

Beyond the core products Nutanix offers, we are also providing and developing tools to help customers get a quicker time to value, deploy using our best practices, and have better visibility into performance. At the conference we announced two new tools to help in this area: Xtract for migration and data transformation, and X-ray to allow benchmarking of not just Nutanix but other HCI offerings as well.

Xtract

With all of the amazing features and enhancements discussed in Nutanix Enterprise Cloud, it’s not surprising that we are frequently asked by customers “How can I migrate my VMs over?”. Xtract is one of those methods, comprising of two offerings i: Xtract for VMs, currently under development, and Xtract for DBs, already available for download at the Nutanix Portal Site. The names are fairly self explanatory with the VM product enabling project based bulk VM migration in a ‘lift-and-shift’ fashion, from VMware ESXi to AHV with minimal service disruption. Xtract for DBs’ transformational capabilities work at the application-layer, discovering and assessing Microsoft SQL Servers regardless of source platform (physical, virtual, and even public cloud based). Applying industry best practises to their configuration and performance data, a design template is created, whereby new SQL Server VMs are instantiated on Nutanix Enterprise Cloud, and DB data is migrated into these new VMs. Both VM and DB capabilities enable full cut-over control with licenses included for all PRISM users, saving businesses the cost and manual effort of migrating workloads by other means. Read further in this blog post.

X-Ray

The complexity of SAN storage led to a huge focus on performance and benchmarking. That focus created an entire body of testing tools with various approaches. To this day there is still much debate on synthetic testing vs real world observations. What is not in question is that HCI has changed the game with existing tools not being suited for an HCI test. To address this, Nutanix created X-Ray which is designed to use real world scenarios for both performance and availability (e.g. upgrades, hardware failure, etc) to create a benchmark or balanced comparison between platforms. You can read more here or download it and check it out for yourself.

Whew!

I’m hesitant to end with “Well that’s it.” as this blog covers over 15 new products and features that are part of our upcoming releases and we didn’t even get into Calm and Xi! Thanks for sticking with me to the end and I hope that we have sparked your interest in what’s to come. Looking forward to seeing all of you at .NEXT Europe in Nice in September or back in the states .NEXT year in New Orleans! Stay tuned to our twitter feed (@nutanix), website and customer forums (my.nutanix.com) for more details and updates!

Forward Looking Statements
This blog includes forward-looking statements, including but not limited to statements concerning our plans and expectations relating to product features and technology that are under development or in process and capabilities of such product features and technology and our plans to introduce product features in future releases. These forward-looking statements are not historical facts, and instead are based on our current expectations, estimates, opinions and beliefs. The accuracy of such forward-looking statements depends upon future events, and involves risks, uncertainties and other factors beyond our control that may cause these statements to be inaccurate and cause our actual results, performance or achievements to differ materially and adversely from those anticipated or implied by such statements, including, among others: failure to develop, or unexpected difficulties or delays in developing, new product features or technology on a timely or cost-effective basis; delays in or lack of customer or market acceptance of our new product features or technology; the introduction, or acceleration of adoption of, competing solutions, including public cloud infrastructure; a shift in industry or competitive dynamics or customer demand; and other risks detailed in our Form 10-Q for the fiscal quarter ended April 30, 2017, filed with the Securities and Exchange Commission. These forward-looking statements speak only as of the date of this presentation and, except as required by law, we assume no obligation to update forward-looking statements to reflect actual results or subsequent events or circumstances.

Disclaimer: This blog may contain links to external websites that are not part of Nutanix.com. Nutanix does not control these sites and disclaims all responsibility for the content or accuracy of any external site. Our decision to link to an external site should not be considered an endorsement of any content on such site.

 

© 2017 Nutanix, Inc. All rights reserved. Nutanix, the Enterprise Cloud Platform, Xi, Nutanix Calm, the Nutanix logo and other Nutanix products mentioned are registered trademarks or trademarks of Nutanix, Inc. in the United States and other countries. All other brand and product names mentioned herein are for identification purposes only and may be the trademarks of their respective holder(s).

 

Refer: https://www.nutanix.com/2017/07/12/next-2017-product-technology-announcement-summary/

 

Nutanix Takes on Microsoft, VMware in Cloud


It isn’t known how much Cisco and H-P offered, and while Mr. Pandey wouldn’t comment on the approaches, he said in an interview that he has always been focused on building his startup into a data center powerhouse as opposed to selling it to the highest bidder. “Honestly, and this might sound glib, it was really easy.” Mr. Pandey said of Nutanix’s decision to remain independent. “I think the fact that we had happy customers, a great Net Promoter score, and good growth was telling us that the best was ahead. We thought, ‘Why not try to build a larger company?’”

The Takeaway
• Turned down acquisition offers from Cisco, H-P
• Company started out challenging storage giants, now expanding focus
• Focusing on software, but rivals had earlier start

H-P’s pursuit of Nutanix, which hasn’t previously been reported, was confirmed by a person familiar with the matter. The Information reported on Cisco’s interest in Nutanix in May. A Cisco spokeswoman declined to comment.

It remains to be seen how Mr. Pandey’s aspirations will play out. Nutanix’s IPO last September was one of the best-performing in the technology industry last year. Its shares priced at $16, started trading at $26.50 and soared more than 130% to close their first day at $37. But the shares have slipped since, falling to $23.13 at the close of trading Wednesday. For its first year as a public company, Nutanix reported revenue of nearly $767 million, a 72% jump from its previous fiscal year. But Nutanix also reported a net loss of $458 million, up 171% from the previous year.

Nutanix leads the market for a type of software known as “hyper-convergence,” which lets storage and networking systems run as software on server hardware. Its customers include Toyota, Airbus, AT&T and the U.S. Department of Defense. Since its founding in 2009, Nutanix has challenged the dominant data center companies. First, it did so with software that businesses could use to avoid buying expensive storage hardware from companies like EMC and NetApp. Then Nutanix took aim at VMware by developing software that multiplies the computing power of server hardware.

David Blumberg, founder and managing partner at Blumberg Capital, Nutanix’s first investor, recalls meeting with a group of CIOs around the time of Nutanix’s founding. At the time, storage had become a major challenge for CIOs because the rate of storage demand was growing exponentially, while budgets weren’t keeping pace. Companies were buying expensive collections of storage hardware devices and switches, known as storage area networks, from EMC and others. Nutanix’s model of replacing SANs with software elicited immediate interest from the CIOs, said Mr. Blumberg.

Mr. Pandey, 42, was born in India and received his undergraduate degree from the prestigious Indian Institute of Technology in 1997. In his first year at college, he wasn’t sure about pursuing a career in computer science and thought about going into physics instead. “That was my Plan B if I didn’t get into one of the top computer science schools,” he said. Later, Mr. Pandey contemplated getting a doctorate in economics before settling on computer science. He earned a master’s in computer science at the University of Texas at Austin but dropped out before getting his Ph.D.

Mr. Pandey’s trip to the U.S. in 1997 marked the first time he had been on an airplane. Two months later, he met his future wife, who lived in Mumbai, in an online chat room. They married three and a half years later.

Mr. Pandey moved to the Bay Area in 2000 at the height of the first internet boom, where he worked at Oracle and at Aster Data Systems, a data analytics software company. There, he worked with Mohit Aron, a former staff engineer at Google, and Ajeet Singh, a former Oracle product manager. The trio left in 2009 to start Nutanix. Mr. Singh left the company in 2012, and Mr. Aron the following year.

New Products

With the IPO behind it, Nutanix is now looking to expand. It recently outlined a new product aimed at attracting large corporate customers and competing with rivals like VMware and Microsoft.

But for all its ambition, Nutanix faces numerous challenges in its quest to become a data center powerhouse. While its newer projects are promising, their ability to generate revenue and grab share from VMware and other rivals remains unproven. And Microsoft is further along in developing software that works both in public clouds and in corporate data centers. At the same time, big companies like Dell EMC, Cisco Systems and Hewlett Packard Enterprise have competing hyperconvergence products with aggressive pricing. Nutanix also faces challenges from a crop of startups touting similar technology, including Datrium, Hedvig and Maxta, among others.

Four years ago, Nutanix began targeting the market dominated by VMware, which makes software for large companies that allows a single server to handle the work of multiple servers—known as server virtualization software. Nutanix also offers management software for virtualized servers, a more lucrative product. With these offerings, which launched in 2015, Nutanix began to establish the idea that private clouds in data centers should run and be constructed in a similar way to public clouds like Amazon Web Services.

In June, Nutanix unveiled a line of services, Xi Cloud, that goes further in blurring the lines between public and private cloud storage. The first service, due to hit the market early next year, is designed to let companies move their Nutanix data center software to public clouds before disasters such as hurricanes strike, which lets them quickly restore service afterward. Nutanix hopes Xi Cloud will allow it to take business from much larger companies like Microsoft and VMware. Xi Cloud Services will be delivered from Nutanix-operated cloud infrastructure, and potentially via Google Cloud, said a Nutanix spokeswoman.

Nutanix also announced Calm, a management tool that automatically identifies the best type of cloud for a particular computing job and makes recommendations to administrators on where to move it. It is expected to hit the market by the end of the year.

‘The better way is for humans to show intent and let the machines figure it out.’

“The reason this company exists today…is not about a box,” Mr. Pandey said during the interview at Nutanix’s San Jose, Calif., headquarters. “It’s about saying computing is getting re-architected, and there are new consumption models where all the boxes are vanishing and becoming pure software, and renting and owning are coming together.”

Another way Nutanix is competing with enterprise companies is by weaving artificial intelligence into its software. Mr. Pandey said Nutanix has a team of machine-learning experts building models that power various features of its server and management software. Nutanix also employs AI for capacity planning, a tool that companies use to determine future computing needs based on past access patterns.

“If machines are not intelligent enough, humans will have to be more prescriptive and say, ‘Go from this step to that step.’ The better way is for humans to show intent and let the machines figure it out,” Mr. Pandey said.

Next Target: Public Clouds

Nutanix’s server virtualization and management software laid the groundwork for new projects and industry alliances, some of which are still in development. In June, Nutanix announced a strategic partnership with Google Cloud, in which the companies are integrating their software to let companies move computing jobs between data centers and Google’s public cloud.

Mr. Pandey said Nutanix benefits from the deal by having direct access to a public cloud, which it didn’t have before, and by increasing its support for containers, a type of software that allows multiple applications to run either on the same physical machine or to spread out across large numbers of machines.

With the new products, Nutanix is competing with VMware and Microsoft, which also make software that can run both in public cloud service and corporate data centers. AWS used to insist that all computing would eventually move to public clouds. But many big companies aren’t ready to go that far, concerned about the security of services shared with other customers. By developing public cloud-like software that runs in data centers, Nutanix is trying to position itself as the go-to choice for the data center side.

Mr. Pandey said the combination of regulatory compliance and the need for computing to be situated close to users for performance reasons gives companies like Nutanix an advantage over the public cloud providers.

Nutanix started out selling its software integrated with generic, “white-box” servers from Taiwanese manufacturers, shipping its first products in late 2011. Mr. Pandey said given that Nutanix’s technology combining server computing and storage was new to many companies, it was important to sell a physical product. “We were extremely mindful and aware of what it means to give the product a shape that people could touch and feel,” Mr. Pandey said.

In 2014, Nutanix signed an agreement with Dell to sell Nutanix’s software pre-loaded on Dell servers, which helped Nutanix gain a stronger foothold in the enterprise market. Now Nutanix also sells its software on servers from Lenovo, Cisco and HPE.

But selling its software pre-loaded on hardware has contributed to another of Nutanix’s big challenges: the high cost of configuring and testing the final product, an issue also faced by its competitors.

Mr. Pandey said this is one reason why Nutanix is promoting use of its software unbundled from hardware. “Our cost of sales will decrease considerably as we increasingly shift away from appliance-based sales and toward software-only sales,” Mr. Pandey said.

 

By Kevin McLaughlin

https://www.theinformation.com/articles/nutanix-takes-on-microsoft-vmware-in-cloud?jwt=eyJhbGciOiJIUzI1NiJ9.eyJzdWIiOiJhYmMuYWJjQGFiYy5jb20iLCJleHAiOjE1NDU5OTg4MDgsIm4iOiJHdWVzdCIsInNjb3BlIjpbInNoYXJlIl19.Q52ySJ1Ol2bDxS5hg-LX1y2pUSxF2R9RHr6tDLDFTG8&unlock=21afe0111cfe5e35

Khi mã độc trở thành dịch vụ cho thuê


Các phần mềm độc hại, botnet, phishing và backdoor đang được tin tặc cung cấp như một dịch vụ thuê bao hàng tháng.

Giới phát triển phần mềm độc hại đang có những bước phát triển rất đáng lưu tâm, ngoài khả năng điều chỉnh kỹ thuật để né tránh công nghệ bảo mật mới nhất họ còn gia tăng dịch vụ kinh doanh của mình để trục lợi từ việc đáp ứng nhu cầu của những kẻ tội phạm sẵn sàng chi tiền trên toàn cầu.

Vì vậy, không có gì ngạc nhiên khi có rất nhiều công nghệ mã độc, phương thức tấn công và mô hình kinh doanh mới được triển khai để phục vụ khách hàng trên thị trường “đen”. Và nhiều mã độc ngày nay được cung cấp giống như các dịch vụ điện toán đám mây mà chúng ta vẫn thường sử dụng hàng ngày. Ngoài mã độc, dữ liệu bị đánh cắp hay hàng loạt mặt hàng khác đều trên các Dark Web ngày càng được cung cấp như một dịch vụ. Sự phát triển của SaaS không chỉ hỗ trợ hoạt động kinh doanh cho doanh nghiệp mà còn tạo ra những công cụ gây họa khó lường trên không gian mạng ngày nay. Dưới đây là một số dịch vụ đáng sợ đó.

Dịch vụ của nhóm hacker The Shadow Brokers

WannaCry là một trong những phương tiện tiếp thị ấn tượng nhất mà nhóm tin tặc phía sau The Shadow Broker (TSB) đã sử dụng để khủng bố hàng loạt người dùng doanh nghiệp trong thời gian qua.

Sự bùng phát ransomware đã được lan truyền sau khi TSB đánh cắp được hàng trăm công cụ bẻ khóa của Cơ quan An ninh Quốc gia Hoa Kỳ NSA vào hồi tháng 8/2016. Sau khi nổi tiếng toàn cầu với việc phát tán mã độc tống tiền WannaCry (Wanna Decrypt0r hay WannaCrypt), nhóm TSB đã bán các công cụ khai thác và lỗ hổng zero-day mới cho các thành viên thuê bao trả phí hàng tháng thay vì chia sẻ miễn phí như trước đây. Dịch vụ này có tên gọi là “Wine of Month Club” với phí cho mỗi thành viên là 23 ngàn USD/tháng.

TSB chấp nhận mọi loại khách hàng từ tin tặc, các công ty an ninh, chính phủ, cho đến các nhà sản xuất phần cứng. Hồi tháng 4/2017, TSB tung ra dịch vụ “Dump Data of Month” dành cho các thành viên trả phí trong đó bao gồm: Bảng khai thác hệ điều hành, bao gồm Windows 10; Bảng khai thác trình duyệt web, router, và smartphone;  Dữ liệu bị tổn hại từ ngân hàng và nhà cung cấp Swift; Các thông tin bị đánh cắp trên mạng từ các chương trình tên lửa hạt nhân của Nga, Trung Quốc, Iran và Bắc Triều Tiên.

Vào năm 2013, một nhóm hacker bí ẩn gọi là The Shadow Brokers (TSB) đã đánh cắp được một số bí mật của Cơ quan An ninh Quốc gia Hoa Kỳ (NSA). Đến năm 2016, TSB đã công bố hàng loạt các công cụ hack của NSA, bao gồm một số khai thác lỗ hổng zero-day. Những công cụ khai thác lỗ hổng này nhắm vào các tường lửa doanh nghiệp, các sản phẩm chống virus và các sản phẩm của Microsoft.

Chi phí dịch vụ tùy thuộc nhu cầu thị trường

Các công cụ khai thác mã độc hiện tại đã được nhiều nhóm tin tặc cung cấp dựa trên cơ sở SaaS. Giá thuê bao của các bộ công cụ này cũng tăng giảm theo một số xu hướng thị trường đen – bao gồm cả những xu hướng độc nhất vô nhị như tự động ẩn mình trước các cuộc điều tra của cơ quan an ninh.

Theo hãng nghiên cứu CheckPoint, hồi năm 2016, khi bộ công cụ khai thác lỗi có tên là Angler biến mất khỏi thị trường thì một bộ công cụ khác là Neutrino đã tăng giá gấp đôi chỉ sau một đêm, từ 3,5 ngàn USD lên 7 ngàn USD.

Đấy là các bộ công cụ tấn công diện rộng, còn bảng giá dành cho các dịch vụ cá nhân hiện vẫn chưa biến động mấy. Bảng giá cho việc bẻ khóa hòm thư Gmail, Hotmail và Yahoo tại Mỹ vào khoảng 129 USD, đối với mục tiêu là người dùng doanh nghiệp thì chi phí có thể lên đến 500 USD. Các cuộc tấn công DDoS được tính theo giờ, ngày hoặc tuần, chi phí từ 5 USD đến 555 USD.

Trong bảng giá dành cho mục tiêu người dùng cá nhân thì dịch vụ tấn công tài khoản mạng xã hội biến động theo từng thị trường. Để truy cập vào tài khoản như Facebook và Twitter tại Mỹ, khách hàng phải trả trên 129 USD hay các mạng xã hội của Nga như VK.ru hay Ok.ru thì giá sẽ là 194 USD. Tại Việt Nam cũng có bảng giá cho việc hack tài khoản Facebook với giá từ 50 – 100 USD.

Trước khi biến mất, Angler là bộ công cụ được phổ biến nhiều nhất, tiếp theo đó là Nuclear. Fiesta, Magnitude, FlashPack, Neutrino vẫn còn phổ biến cho tới ngày nay nhưng chưa có ai có thể qua mặt được Angler.

Cho thuê IoT Botnet

Dịch vụ cho thuê botnet trở nên sôi động khi xuất hiện các cuộc tấn công từ chối dịch vụ DDoS từ hệ thống các thiết bị Internet of Thing. Đây là loại botnet không được xây dựng để điều khiển các máy tính mà hướng đến các thiết bị IoT.

Năm 2016, mã nguồn của “Mirai” – mạng lưới các máy quay kết nối Internet và các thiết bị “Internet of things” khác bị lợi dụng để tấn công DDoS đã được công bố.

Tin tặc lợi dụng mã nguồn của Mirai để lây nhiễm sang các thiết bị IoT nhằm tạo ra một cuộc tấn công DDoS vào website KrebsOnSecurity, đây là cuộc tấn công từ chối dịch vụ đạt kỷ lục với lưu lượng 620 Gbps từ các thiết bị IoT bị nhiễm. Tiếp theo đó là OVH – công ty cung cấp dịch vụ hosting của Pháp phải hứng chịu đồng thời 2 đợt tấn công DDoS, khiến băng thông kết hợp đạt đến gần 1 Tbps.

Sau nhiều cuộc tấn công với mục đích quảng bá nhắm vào các doanh nghiệp sử dụng nhà cung cấp DNS là Dyn như Twitter, Netflix, Spotify, Reddit… dịch vụ thuê bao botnet Mirai ra đời.

Dịch vụ botnet Mirai có thể cung cấp tới 400 ngàn thiết bị lây nhiễm; mức giá giao động từ 3 ngàn USD cho một chiến dịch DDoS kéo dài 2 tuần với 50 ngàn thiết bị tấn công cho đến 7,5 ngàn USD cho dịch vụ 100 ngàn thiết bị bot.

Bộ công cụ khai thác mã độc là nhánh nhỏ của phần mềm chạy trên máy chủ và tìm kiếm lỗ hổng trên máy tính của người truy cập vào máy chủ. Chúng được thiết kế để phát hiện các lỗ hổng bảo mật trong trình duyệt, cũng như là các ứng dụng khác như Flash và Java. Đặc biệt rất dễ sử dụng- thậm chí những hacker mới chưa có kinh nghiệm cũng không gặp vấn đề gì với quá trình cài đặt và sử dụng.

Dịch vụ mô-đun mã độc

Cũng giống như các dịch vụ cung cấp các lựa chọn và tiện ích theo yêu cầu để thỏa mãn người mua, tin tặc đưa ra các giải pháp để đáp ứng nhu cầu của khác hàng. Hồi tháng 5/2017, Terbium Labs và các nhà nghiên cứu của CheckPoint đã mô tả chi tiết một dịch vụ botnet dạng mô-đun được gọi là DiamondFox cung cấp nhiều tùy chọn khác nhau để người dùng lựa chọn.

Giao diện quản lý của hệ thống này được đánh giá là rất chuyên nghiệp và thân thiện. Với DiamondFox, người dùng chỉ cần mua một sản phẩm duy nhất là có quyền truy cập loạt các tính năng, dưới dạng plugin và có thể lập kế hoạch cũng như thực hiện nhiều chiến dịch tấn công mạng từ đánh cắp thông tin xác thực cho đến tấn công DDoS.

Cho đến nay, botnet của DiamondFox dường như là giải pháp đơn giản dành cho bất kì người dùng nào muốn tập làm hacker. Các nhà cung cấp phần mềm độc hại đứng đằng sau DiamondFox là Edbitss  đã đầu tư khá nhiều vào việc nâng cấp, cải tiến bộ công cụ này, mọi thay đổi cập nhật đều được ghi chép cẩn thận và chia sẻ với những người mua tiềm năng. Giá khởi điểm cho dịch vụ DiamondFox là khoảng  300 USD, với các plugin bổ sung thì có giá là 150 USD.

Hãng bảo mật Symantec đưa ra một cảnh báo rằng các thiết bị IoT không an toàn đang ngày càng bị tấn công nhiều và bị điều khiển để khởi động các cuộc tấn công DDoS. Symantec nhận định một lượng lớn các chương trình mã độc nhắm vào mục đích DDoS có thể đã lây nhiễm nhiều hệ thống chạy trên nền Linux từ năm 2015 và sẽ tiếp tục tăng mạnh. Những mối nguy hại này được lập trình để chạy trên firmware nền Linux cho các kiến trúc CPU thường dùng trong các thiết bị nhúng và IoT.
Báo cáo của Symantec cũng cho biết hầu hết hệ thống này không bị xâm nhập qua các lỗ hổng tinh vi, mà là do thiếu những bước bảo mật cơ bản. Nhờ vào sự phổ biến của Internet, những kẻ tấn công thường tìm kiếm các thiết bị mở sẵn cổng Telnet hay SSH, và cố gắng đăng nhập với thông tin quản trị mặc định. Chỉ đơn giản như thế, chúng đã có thể xây dựng một mạng lưới botnet IoT rộng khắp như ngày nay. Khi mà các cuộc tấn công DDoS dùng sức mạnh IoT bắt đầu đạt đến tầm không thể kiểm soát được, thì những dấu hiệu cảnh báo trước kia đang dần hiện rõ.
Đơn cử, hồi tháng 10/2015, hãng bảo mật Incapsula đối mặt với cuộc tấn công DDoS xuất phát từ khoảng 900 camera quan sát CCTV (closed-circuit television camera). Đến tháng 6/2016, Arbor Networks – nhà cung cấp dịch vụ bảo vệ trước DDoS cũng cảnh báo hiện có hơn 100 botnet đã được xây dựng bằng nhiều thiết bị nhúng bị nhiễm mã độc nền Linux.

Mã độc tống tiền như một dịch vụ – Ransomware-as-a-service

Sự bùng nổ của mã độc tống tiền hiện nay đi liền với sự gia tăng của mô hình phân phối mã độc như một dịch vụ.

Một trong những điểm nhấn của loại hình kinh doanh mã độc này là chương trình đánh cắp dữ liệu Tox. Phần mềm độc hại này có mô hình kinh doanh độc đáo dựa trên việc chia sẻ lợi nhuận. Tác giả của Tox không yêu cầu phải trả lệ phí trước nhưng yêu cầu được nhận 20% cho bất kỳ khoản tiền chuộc nào mà nạn nhân trả cho người sử dụng. Tox biến mất khỏi thị trường khá sớm nhưng đã để lại dấu chân cho những nhóm tin tặc khác tiến bước.

Chia sẻ lợi nhuận dường như là một nước cờ khá văn minh khi tất cả mọi người tham gia đều có phần, điều đó cũng khiến mã độc gia tăng đáng kể trong thời gian vừa qua. Theo nhiều báo cáo của các nhà nghiên cứu bảo mật thì tác giả của Cerber đã kiếm được 40% tiền chuộc trả cho người sử dụng các dịch vụ của họ.

Tấn công lừa đảo như một dịch vụ – Phishing-as-a-Service

Phishing là một trò chơi mang đậm sự tính toán, may mắn và kết thúc rất nhanh vì thế nó là một trong những dịch vụ của các nhóm tội phạm mạng có giá rẻ nhất hiện nay. Một nền tảng được phát hiện bởi Fortinet cung cấp gói dịch vụ tấn công lừa đảo VIP cho từng thị trường chỉ với giá 3,5 USD mỗi tháng.

Báo cáo ‘Phishing made easy’ của hãng bảo mật Imperva đã mô tả cách thức hoạt động của Phishing-as-a-Service (PhaaS) trên thị trường chợ đen của Nga rằng “đây là giải pháp hoàn chỉnh cho người mới bắt đầu bao gồm cơ sở dữ liệu của email, mẫu lừa đảo và một cơ sở dữ liệu phụ trợ để lưu trữ thông tin được đánh cắp.

Để vận hành PhaaS, tin tặc có thể lựa chọn từ nhiều trang lừa đảo tiềm ẩn – bao gồm phương tiện truyền thông xã hội, ngân hàng, bán lẻ, viễn thông, tiện ích, trò chơi và hẹn hò để gửi liên kết tới các nạn nhân. Bất kỳ thông tin đăng nhập nào đã bị đánh cắp sẽ được lưu trữ trên bảng điều khiển cá nhân của tin tặc.

Báo cáo cũng chỉ ra rằng, có khoảng 67 ngàn người đã sử dụng dịch vụ PhaaS và trung bình 65 ngàn người mỗi tháng bị đánh cắp dữ liệu.

Các nhà nghiên cứu cũng cho biết một chiến dịch sử dụng các trang lừa đảo, máy chủ spam, danh sách 100 ngàn địa chỉ email, và truy cập vào máy chủ bị xâm nhập có thể được thực hiện với mức giá chỉ 27 USD.

Trước đây, một nhóm hacker Indonesia đã sử dụng dạng dịch vụ PhaaS để thực hiện các chiến dịch tấn công lừa đảo liên quan đến ứng dụng web của Outlook, ngân hàng trực tuyến của Wells Fargo và tệp PDF của Adobe.

Backdoor-as-a-Service

Gia đình mã độc dựa trên nền tảng Java gồm các thành viên như JSocket, jRAT, AlienSpy hay Adwind đã từng có những cuộc tấn công đình đám nhắm vào các hệ điều hành Windows, Linux, Mac OS X và thiết bị Android từ năm 2013 nay đã quay trở lại với giải pháp mới: Backdoor như một dịch vụ (Backdoor-as-a-Service). Dịch vụ Backdoor này được phát hiện sau một cuộc tấn công nhắm vào nhân viên ngân hàng ở Singapore. Mã độc AlienSpy hoặc Adawind phần lớn đã bị đánh sập và ngăn chặn bởi nhà cung cấp tên miền GoDaddy hồi năm 2015 nhưng chúng đã được sửa đổi với thương hiệu mới và mở lại dịch vụ cho khách hàng là những kẻ lừa đảo Nigeria.

AlienSpy được hồi sinh dưới cái tên JSocket và jRat có giá thuê bao từ 30 USD/tháng đến 200 USD cho phiên bản không giới hạn. JSocket bao gồm một số tính năng “RAT” điển hình (công cụ truy cập từ xa) bao gồm quay video từ webcam, ghi âm thanh từ micro, khả năng phát hiện phần mềm chống virus trên hệ thống, keylogger cho đến các khóa ảo được sử dụng để truy cập vào bất kỳ VPN nào được sử dụng bởi nạn nhân.

Cerber có mối đe dọa cao với khả năng mã hóa các tập tin của người sử dụng và sau đó cung cấp tính năng TTS (text-to-speech) để nạn nhân nhận được thông điệp về khoản tiền chuộc. Mã độc này chủ yếu lây nhiễm theo phương thức đính kèm trong mail, link độc hại trên web, trong các ứng dụng chat, Skype…  Sau khi mã hóa dữ liệu trên máy tính nạn nhân, mã độc này sẽ để lại những thông báo đòi tiền chuộc ở dạng .TXT, HTML và VBS tại mỗi thư mục có chứa dữ liệu bị mã hóa. Mã độc này đòi tiền chuộc 1,24 Bitcoin (giá trị thời điểm đó vào khoảng hơn 500 USD) và khoản tiền này tăng lên gấp đôi nếu như sau 1 tuần nạn nhân không trả tiền chuộc.

 

Theo PC WORLD VN

Đế chế dữ liệu của Facebook nguy hiểm như thế nào?


Là một nền tảng miễn phí, Facebook lấy gì để “nuôi thân”? Đúng vậy, chính là sử dụng dữ liệu mà bạn đã cung cấp một cách tự nguyện.

Xử lý dữ liệu là nguồn thu nhập lớn nhất của Facebook. Trong năm 2016, công ty đã kiếm được 6,4 tỷ USD từ mảng quảng cáo, đánh dấu sự tăng trưởng 63% so với năm trước.

Có rất ít người nhận ra được mức độ thu thập dữ liệu của Facebook một cách chính xác. Bên cạnh việc xử lý thông tin trên trang cá nhân, Facebook còn theo dõi bạn ở bên ngoài phạm vi nền tảng của mình (offsite) và mua thông tin về hoạt động ngoại tuyến của bạn từ các bên thứ ba. Nhờ sức mạnh có được từ những nguồn này, Facebook có thể xây dựng nên những hồ sơ khách hàng chi tiết đến mức nó có thể làm dấy lên nhiều mối lo ngại về quyền riêng tư.

Những dữ liệu nào được thu thập?

Chính sách sử dụng dữ liệu của Facebook (được sửa đổi lần cuối vào ngày 29/9/2016) có nêu rõ các loại thông tin mà nó thu thập về bạn. Một số được thu thập ở ngay trên trang Facebook (onsite), còn lại là dữ liệu ngoài phạm vi nền tảng (offsite).

1.     Dữ liệu onsite

     – Tất cả những gì mà bạn chia sẻ trên Facebook, bao gồm chi tiết thông tin tài khoản, những bài đăng do bạn viết, vị trí và ngày tháng chụp ảnh, cách bạn sử dụng Facebook (như loại nội dung mà bạn yêu thích, tần suất giao tiếp, và bạn thường xuyên giao tiếp với những ai).

     – Tất cả những gì người khác nói về bạn, bao gồm ảnh, tin nhắn và các bài đăng.

     – Các nhóm mà bạn tham gia, bao gồm dữ liệu về cách bạn tương tác với họ và thông tin liên lạc (ví dụ như địa chỉ) mà bạn đăng lên.

     – Thông tin tín dụng, như kiểu thanh toán mà bạn đã thực hiện, thông tin thẻ tín dụng (số thẻ, mã bảo mật,…) cũng như hóa đơn và chi tiết giao hàng.

2.     Dữ liệu offsite

     – Tất cả thông tin về thiết bị của bạn, như hệ điều hành, phiên bản phần cứng, cài đặt của thiết bị, tên và loại phần mềm, pin và tín hiệu sóng, số hiệu thiết bị, địa chỉ thông qua GPS, tên nhà mạng sử dụng, loại trình duyệt sử dụng, ngôn ngữ và múi giờ, số điện thoại di động và địa chỉ IP.

     – Thông tin từ các trang web và ứng dụng bên thứ ba có liên kết với Facebook, chẳng hạn như các trò chơi nền web. Thông tin bao gồm những trang web và ứng dụng mà bạn truy cập.

     – Thông tin được cung cấp bởi các đối tác bên thứ ba, chẳng hạn như các nhà quảng cáo hoặc các nhà môi giới dữ liệu.

     – Thông tin được cung cấp bởi các công ty khác thuộc sở hữu của Facebook.

Các công ty thuộc quyền sở hữu của Facebook

1.     Facebook Payment Inc.

2.     Atlas

3.     Instagram LLC

4.     Onavo

5.     Moves Oculus

6.     WhatsApp Inc.

7.     Masquerade

8.     CrowdTangle

Dữ liệu được thu thập như thế nào?

Một số kỹ thuật thu thập dữ liệu, đơn giản như lưu thông tin tài khoản hoặc nhật ký hoạt động trên Facebook là khá hiển nhiên. Những kỹ thuật khác thì không được rõ ràng như vậy.

Năm 2015, Facebook đã thua một vụ kiện tại Bỉ, liên quan đến việc thu thập dữ liệu của mình. Một nhóm các nhà nghiên cứu đến từ Đại học Leuven và Brussels đã kết luận rằng mỗi khi một người truy cập một trang Facebook hay một trang web có dùng nút Facebook Like, một cookie (một đoạn văn bản ghi thông tin được tạo ra và lưu trên trình duyệt của máy người dùng) có tên datr được lưu trữ một cách bí mật trên trình duyệt – ngay cả trên trình duyệt của người không sử dụng Facebook. Cookie này được thiết kế để tồn tại trong thời gian 2 năm, đồng thời theo dõi tất cả các hoạt động duyệt web của người dùng. Tòa án đã quyết định rằng việc thu thập thông tin của người dùng mà không được sự đồng ý của họ là vi phạm quy định của EU. Năm 2016, Facebook đã kháng cáo thành công khi lập luận rằng họ có trụ sở chính tại châu Âu được đặt ở Ireland nên tòa án Bỉ không có quyền hành phán xét họ. Do vậy, Facebook vẫn được phép tự do theo dõi người dùng (và thậm chí cả những người không phải người dùng) của mình.

Để hồ sơ người dùng trở nên chi tiết hơn nữa, Facebook còn mua thông tin về các hoạt động trực tuyến và ngoại tuyến của bạn từ các bên thứ ba.

Facebook và các nhà môi giới dữ liệu bên thứ ba

Thu thập dữ liệu là một ngành công nghiệp khổng lồ hoạt động trong bóng tối. Các nhà môi giới dữ liệu là những công ty thu thập và phân tích các dữ liệu công khai để xây dựng hồ sơ chi tiết về người dùng. Những hồ sơ này có thể chứa các thông tin như bạn có nuôi chó hay không, bạn thích trà của hãng nào, cỡ giày, bạn đang mang thai hay không, và thói quen mua sắm bằng thẻ tín dụng. Theo New York Times, Acxiom, một trong những công ty môi giới dữ liệu lớn nhất thế giới, người dùng được phân chia thành các nhóm rất nhạy cảm như “người thừa kế tiềm năng”, “người trưởng thành với bố mẹ có chức có quyền”, “đang ăn kiêng”, “thích bài bạc”, “đang cần tiền” và “có hút thuốc lá”.

Làm thế nào mà các nhà môi giới này có thể thu thập thông tin về bạn? Họ lấy chúng từ dữ liệu mở của chính phủ (ví dụ, nếu bạn thực hiện quyên góp chính trị), các thông tin công khai (hồ sơ cá nhân trên mạng xã hội), và dữ liệu thương mại (những thanh toán do bạn thực hiện). Bất kì cuộc thi, khảo sát, bảo hành, thanh toán bằng thẻ hay thậm chí là đăng kí dịch vụ (subscription) đều được tính đến. Những dữ liệu này được cung cấp cho các thuật toán phức tạp, từ đó phân loại bạn theo nhiều hạng mục khác nhau.

Thu thập dữ liệu là việc rất phổ biến tại Mỹ, nơi luật bảo vệ dữ liệu vẫn chưa được hoàn thiện. Các công ty môi giới dữ liệu thậm chí không có nghĩa vụ phải cho bạn thấy rằng hồ sơ thông tin của họ về bạn có chứa những gì. Ngay cả khi họ quyết định làm điều đó để “thể hiện tính minh bạch”, họ vẫn có thể chọn lọc thông tin hoặc biến quá trình truy cập thông tin trở nên khó khăn một cách nực cười.

Để bạn có thể hiểu rõ hơn về phạm vi của ngành công nghiệp thu thập dữ liệu, công ty Datalogix (đây cũng là công ty môi giới dữ liệu đầu tiên mà Facebook kí hợp đồng vào năm 2012) có thông tin về hầu hết mọi hộ gia đình tại Mỹ và nắm trong tay lượng thông tin giao dịch người dùng lên tới 1.000 tỷ USD. Acxiom, một công ty môi giới khác có liên kết với Facebook có thông tin về khoảng 500 triệu người tiêu dùng trên toàn thế giới, với khoảng 1.500 điểm dữ liệu cho mỗi người.

Những loại quảng cáo của Facebook do các bên thứ ba cung cấp thường là về tài chính, chẳng hạn như nguồn thu nhập hàng tháng, giá trị tài sản, hoặc bạn có đi đến những cửa hàng giá rẻ để mua đồ hay không.

Cách Facebook sử dụng dữ liệu của bạn

Dữ liệu Facebook thu thập được dùng để cung cấp cho các dịch vụ, chẳng hạn như đưa ra các nội dung đề xuất, giúp bạn tìm một sự kiện tại địa phương hoặc hiển thị tin tức phù hợp với sở thích của bạn.

Ngoài ra, thông tin cũng được chia sẻ với tất cả các nền tảng và ứng dụng mà Facebook sở hữu [bạn đọc có thể xem lại phần trên].

Cuối cùng, Facebook sử dụng dữ liệu của bạn để cung cấp cho các dịch vụ tiếp thị. Theo như chính sách sử dụng dữ liệu của Facebook: “Với điều này, chúng tôi sử dụng tất cả các thông tin chúng tôi có về bạn để hiển thị cho bạn những quảng cáo có liên quan”. Facebook không chia sẻ những thông tin mang tính nhận dạng cá nhân (những thông tin có thể dùng để xác định bạn như tên hay địa chỉ email). Tuy nhiên, nó chia sẻ tất cả các loại thông tin khác, bao gồm sở thích của bạn, lịch sử duyệt web, địa điểm, thông tin thanh toán, trạng thái mối quan hệ, thông tin gia đình,…

Sự nguy hiểm của việc tạo hồ sơ thông tin cá nhân

Việc sử dụng dữ liệu của bạn cho mục đích tiếp thị có thực sự là một vấn đề không? Xét cho cùng, Facebook không chia sẻ cái gọi là thông tin nhận dạng cá nhân. Rất ít doanh nghiệp có thể tồn tại đến ngày nay nếu như họ không thể nhắm đến đúng đối tượng người dùng. Bên cạnh đó, một số người tiêu dùng cho rằng việc các quảng cáo được chỉnh sửa sao cho phù hợp với nhu cầu của họ cũng khá tiện lợi.

Tất cả mọi thứ đều còn phụ thuộc vào quy mô. Peter Eckersley, một nhà khoa học máy tính tại Electronic Frontiers, nói rằng ngay cả khi các công ty sử dụng những phương pháp thu thập thông tin của Facebook, không có công ty nào có thể sử dụng toàn bộ chúng cùng một lúc.

Bên cạnh mối lo ngại hiển nhiên nhất là có quá nhiều thông tin được tập hợp tại một công ty (khi Facebook có 1,94 tỷ người dùng thường xuyên hàng tháng trong năm 2017), dữ liệu có thể bị lạm dụng bởi các nhà quảng cáo theo nhiều cách khác nhau. Ví dụ, chủ xe máy có thể nhìn thấy các quảng cáo bảo hiểm có giá cao hơn mặt bằng chung, hay những người có thu nhập thấp chỉ được giới thiệu mua nhà chất lượng thấp.

Bạn có thể “rút lui” hay không?

Câu trả lời ngắn gọn là không.

Câu trả lời “dài gọn” là nó còn phụ thuộc vào việc bạn muốn rút lui khỏi cái gì. Bạn có thể ngưng việc nhìn thấy những quảng cáo được chỉnh sửa dựa trên sở thích, nhưng điều đó không có nghĩa là Facebook sẽ ngừng theo dõi bạn.

Yêu cầu các công ty môi giới dữ liệu dừng việc thu thập dữ liệu của bạn, về lý thuyết là có thể, nhưng trên thực tế lại là một công việc gần như bất khả thi. Để thoát khỏi Datalogix, bạn sẽ phải gửi yêu cầu kèm theo bản sao của ID (giống như CMND của Việt Nam). Julia Angwin, tác giả của cuốn sách Dragnet Nation: A Quest for Privacy, Security, and Freedom in a World of Relentless Surveillance đã từng thử rút lui khỏi 92 công ty môi giới dữ liệu có tùy chọn cho phép rút lui. Kết quả là, trong phần lớn số lần thử, bà đều thất bại.

Có một số cách để giảm thiểu thiệt hại. Bạn có thể đổi tùy chọn quyền riêng tư để quyết định xem ai có thể xem các bài đăng và thông tin trang cá nhân của bạn trên Facebook.

Ngoài ra, bạn cũng có thể cài đặt Tor, một trình duyệt giúp bạn ẩn danh (phần nào) trên Internet.

Tuy nhiên, cách duy nhất để ngăn chặn việc thu thập thông tin của Facebook chính là xóa tài khoản của bạn. Như trong chính sách sử dụng dữ liệu có nói: “Chúng tôi lưu trữ dữ liệu lâu nhất có thể để cung cấp các sản phẩm và dịch vụ cho bạn và mọi người. Thông tin có liên quan đến tài khoản của bạn sẽ được giữ cho đến khi tài khoản của bạn bị xóa, trừ khi chúng tôi không còn cần đến những dữ liệu đó để cung cấp sản phẩm và dịch vụ nữa”.

Tất nhiên, từ bỏ Facebook không phải là chuyện đơn giản, khi nó đã trở thành một phần trong cuộc sống hiện đại của mỗi chúng ta. Điều bạn nên làm là cân nhắc thật kỹ, liệu những gì mà Facebook (và những nền tảng khác thuộc sở hữu của Facebook) đem lại có đáng với những gì chúng ta đã bỏ ra hay không?

 

Kỹ năng cần thiết để trở thành người quản trị mạng giỏi.


Security Operation Center

 

Ngày nay nền công nghệ thông tin là một lĩnh vực phát triển mạnh mẽ ở nước ta và cả trên toàn thế giới. Trong lĩnh vực CNTT có rất nhiều ngành nghề, lĩnh vực tuy nhiên có một ngành rất phổ biến và hiện nay đang phát triển mạnh mẽ, có rất nhiều người đi theo lĩnh vực này đó chính là ngành quản trị mạng. Vậy để trở thành một nhà quản trị mạng chuyên nghiệp, chúng ta cần phải trang bị những gì? Sau đây là một số điểm mà chúng ta cần phải trang bị nếu muốn trở thành nhà quản trị mạng chuyên nghiệp.

  1. Kỹ năng giao tiếp và trình bày

    • Làm quản trị mạng liên quan chủ yếu đến các kỹ năng thiên về kỹ thuật, vậy các kỹ năng mềm như kỹ năng giao tiếp, kỹ năng trình bày có ảnh hưởng đến sự phát triển của bạn hay không? Giả sử bạn có ý tưởng, đề xuất về một giải pháp công nghệ mới mang lại hiệu quả cho Công ty, hay Công ty vừa triển khai một hệ thống mới và bạn được giao nhiệm vụ hướng dẫn cho nhân viên sử dụng… Trong trường hợp này các kỹ năng giao tiếp, thuyết phục và trình bày đóng vai trò quan trọng, cho nên các kỹ năng mềm cũng là yếu tố quan trọng mà bạn cần phải trang bị. Ngoài ra kỹ năng mềm cũng góp phần không nhỏ trong quá trình hoàn thiện và phát triển tương lai của bạn.
  2. Kỹ năng tìm kiếm

    • Ngày nay hầu như tất cả những kiến thức mà bạn cần đều hiện hữu trên Internet. Không một ai trong chúng ta giỏi và đủ khả năng kiểm soát, biết cách giải quyết hết mọi vấn đề phát sinh của hệ thống mà chúng ta đang vận hành. Bạn không nên xem Google đơn thuần chỉ là công cụ tìm kiếm mà bạn hãy xem Google là một cánh tay phải đắc lực, hỗ trợ chúng ta giải quyết các vần đề nằm ngoài khả năng, kiến thức của chúng ta. Có những việc bạn tốn nhiều thời gian suy nghĩ, hướng giải quyết nhưng lại bế tắc và khi đó chỉ với 1 keyword đúng đi kèm với Google thì mọi thắc mắc, bế tắc của bạn đều được giải quyết.
  3. Tự tạo cho mình Knowledge Base

    • Trong quá trình làm quản trị hệ thống thì kiến thức, kinh nghiệm và những gì bạn trải qua sẽ tăng lên hàng ngày. Chúng ta phải cập nhật kiến thức mới, công nghệ mới liên tục lúc đó những gì chúng ta trải qua sẽ dần bị lãng quên theo thời gian. Do vậy thói quen ghi chép lại những kinh nghiệm, thủ thuật, kiến thức chúng ta đạt được sẽ rất bổ ích bởi vì chúng ta không cần phải cố ghi nhớ từng chi tiết, khi cần dùng thì chúng ta có thể tìm lại nhanh chóng. Ngoài ra chúng ta có thể chia sẻ cho người khác những kiến thức, kinh nghiệm của mình đã từng trải qua vì kiến thức IT rất bao la, ngay chính bản thân của các bạn cũng cần chia sẽ từ người khác.
  4. Trang bị, cập nhật kiến thức công nghệ

    • Công nghệ thông tin nói chung là một lĩnh vực đòi hỏi bạn phải liên tục cập nhật, học hỏi các kiến thức công nghệ mới nếu bạn muốn phát triển. Nếu bạn không theo kịp các công nghệ mới bạn sẽ bị tụt hậu lại phía sau.
    • Ngoài ra càng ngày các công nghệ càng thông minh hơn, nó mang lại nhiều lợi ích cho người sử dụng và mang lại hiệu quả kinh tế. Cho nên cập nhật kiến thức, công nghệ mới nó sẽ giúp cho các bạn có cái nhìn tổng quan, có ý tưởng mới từ đó bạn có thể đưa ra các ý tưởng mang tính mới mẻ và đột phá.
  5. Ngoại ngữ

    • Ngoại ngữ là một vấn đề muôn thưở nếu bạn muốn phát triển và hướng ra tầm thế giới, bởi vì toàn bộ đa số sản phẩm công nghệ, tài liệu hướng dẫn đều ở bản nguyên gốc tiếng anh. Bạn không có kỹ năng tiếng anh, bạn rất khó tiếp cận, học hỏi các công nghệ mới.
    • Ngoài ra bạn phát triển tốt tiếng anh giúp bạn tiếp cận với giới IT trên thế giới rất nhanh chóng bằng cách tham gia các diễn đàn, chia sẽ, học hỏi lẫn nhau không riêng gì về IT mà còn có thể học hỏi các kiến thức trong cuộc sống và các lĩnh vực khác.
  6. Xây dựng hệ thống Monitoring

    • Làm quản trị thì việc nắm rõ các giải pháp Monitoring và phải tự xây dựng cho mình 1 hệ thống Monitoring hoàn chỉnh là điều cần thiết, bởi vì hệ thống Monitoring giúp cho ta nhận biết được hệ thống chúng ta đang vận hành hoạt động thế nào? Cảnh báo kịp thời khi có sự cố xảy ra. Ngoài ra hệ thống Monitoring còn có các chế độ Pro-active giúp cảnh báo chúng ta trước những sự cố có thể xảy ra, từ đó chúng ta có các giải pháp khắc phục sự cố cụ thể và chi tiết hơn, nhằm giảm thiểu tối đa các sự cố có thể phát sinh.
  7. Viết Document cho hệ thống và tài liệu hướng dẫn sử dụng

    • Nhiều nhà quản trị hệ thống nghĩ rằng kỹ năng viết lách không giúp ích gì cho việc quản trị hệ thống của họ. Suy nghĩ này thật sự là một sai lầm lớn, bởi vì nếu các bạn để ý thì đa số các nhà quản trị hệ thống chuyên nghiệp thường phải dùng ít nhất từ 20% – 30% thời gian của họ để viết. Vậy họ viết những gì, lợi ích của việc này là gì mà họ phải tiêu tốn nhiều thời gian như vậy?
      • Viết lại toàn bộ Document cho hệ thống: Một hệ thống chuẩn hóa luôn tồn tại một bộ Document cho hệ thống và thông tin luôn được cập nhật mới nhất. Các thông tin trong bộ Document này có thể là sơ đồ kết nối hệ thống, chi tiết cấu hình từng thiết bị, từng Servers,…lịch sử hoạt động của các thiết bị,…Nó giúp cho chúng ta tìm kiếm thông tin nhanh chóng, truy vấn lại các thông tin cũ, thông tin đã thay đổi trên hệ thống,… bàn giao quản trị cho người khác cũng nhanh hơn.
      • Viết các quy trình, Policy: Khi nhắc đến quy trình, chính sách về IT thì đa số mọi người thường nghĩ hệ thống nào cũng có quy trình, chính sách giống nhau cho nên có thể mang tất cả quy trình từ nơi này sang nơi khác áp dụng là xong. Suy nghĩ này là không chính xác bởi vì mỗi tổ chức thì sẽ có yêu cầu và chính sách IT khác nhau. Ngoài ra chúng ta phải thật sự hiểu rõ là chúng ta làm ra quy trình để làm gì, quy trình mang lại lợi ích gì, áp dụng và trường hợp nào,…? Cho nên chúng ta phải thật sự hiểu rõ nhu cầu của tổ chức và vận dụng kỹ năng viết lách của chúng ta để tạo ra các bộ quy trình, các chính sách, có hiệu quả tốt nhất.
      • Tài liệu hướng dẫn sử dụng: Khi triển khai một ứng dụng, phần mềm mới cho tổ chức thì tài liệu hướng dẫn sử dụng luôn phải có. Tuy nhiên người sử dụng không phải ai cũng có kiến thức tốt về IT, cho nên việc viết tài liệu hướng dẫn sử dụng để người dùng có thể hiểu và tự thao tác được cũng không phải là vấn đề đơn giản.
  8. Thông thạo các công cụ dùng đánh giá an ninh hệ thống (Penetration Testing)

    • Ngày nay vấn đề an ninh cho hệ thống vẫn đang là vấn đề nhức nhối của các nhà quản trị hệ thống, lúc nào xung quanh ta cũng tiềm ẩn các rủi ro về an ninh hệ thống. Việc thành thạo các công cụ dùng để kiểm tra độ an toàn của hệ thống cũng là một ưu thế không hề nhỏ. Các công cụ này giúp bạn nhận dạng và phát hiện ra các điểm yếu của hệ thống mà các Hacker có thể tìm ra và tấn công vào, từ đó bạn sẽ có các kế hoạch chi tiết hơn về phòng thủ và đảm bảo an ninh cho hệ thống một cách tốt nhất có thể.
  9. Thông thạo các quy trình vận hành hệ thống.

    • Chuẩn hóa và tuân thủ là một trong những tiêu chí để đánh giá chất lượng, mức độ an toàn của hệ thống mà bạn đang vận hành. Ngoài ra càng ngày các yêu cầu dành cho người quản trị hệ thống càng được nâng cao lên, do đó việc am hiểu và có kiến thức tốt trong các quy trình, chuẩn hóa để vận hành hệ thống là một ưu thế không hề nhỏ dành cho người quản trị hệ thống. Những quy trình thường áp dụng là quy trình xử lý sự cố (Incident Management), quy trình xử lý lỗi (Problem Management), quy trình quản lý thay đổi (Change Management),…Các bộ quy trình này đều nằm trong bộ kiến thức của chương trình ITIL. Do những ưu thế, tính phổ biến và lợi ích mang lại từ bộ quy trình ITIL là rất lớn, cho nên việc trang bị kiến thức về ITIL là một lợi thế rất lớn để bạn có nhiều cơ hội tiếp cận và làm việc cho các công ty, tổ chức lớn trên toàn cầu và ở nơi đó người ta đòi hỏi rất cao về các quy trình này.
  10. Thiết kế các mẫu báo cáo cần thiết

    • Vấn đề liên quan đến báo cáo là công việc không thể thiếu của một người quản trị hệ thống, chúng ta luôn phải sẵn sàng các loại báo cáo về hệ thống mà chúng ta đang quản trị để có thể cung cấp kịp thời khi cần thiết. Có một số loại báo cáo cơ bản thì chúng ta có thể trích xuất từ hệ thống của chúng ta đang vận hành thông qua các chức năng Monitoring hoặc Reporting… Tuy nhiên còn có nhiều loại báo cáo mà chúng ta phải thu thập dữ liệu bằng tay sau đó phân tích và tổng hợp thành báo cáo hoàn chỉnh thì lúc này kỹ năng tạo báo cáo trở nên quan trọng và cần thiết.
  11. Am hiểu và có kiến thức về việc xây dựng hệ thống dự phòng, khôi phục hệ thống sau thảm họa và kiến thức về Datacenter.

    • Đảm bảo an toàn cho hệ thống là một công việc hàng ngày chúng ta phải làm, tuy nhiên việc đảm bảo ở mức độ an ninh và bảo mật thì vẫn chưa đủ, chúng ta phải nghĩ đến việc an toàn về mặt vật lý như đề phòng trường hợp thiên tai, hỏa hoạn,… xảy ra. Do vậy, các kiến thức và kỹ năng về việc xây dựng hệ thống dự phòng, khắc phục sự cố sau thảm họa cũng là một kỹ năng không thể bỏ qua. Ngoài ra chúng ta cũng cần trang bị các kiến thức chung về Datacenter như các kiến thức về tiêu chuẩn hệ thống lạnh, tiêu chuẩn về nguồn cung cấp điện, hệ thống báo cháy,…những kiến thức này tưởng chừng như vô ích cho nhà quản trị hệ thống, tuy nhiên đôi khi chúng lại rất hữu ích cho chúng ta về việc làm thế nào kéo dài tuổi thọ của các Server vật lý, của các thiết bị mạng…
  12. Sizing

    • Thuật ngữ này có thể xa lạ với một số bạn đang làm quản trị mạng, hoặc có thể một số bạn đã từng nghe qua nhưng các bạn không hiểu rõ Sizing là làm gì, nó ứng dụng như thế nào trong việc quản trị hệ thống. Trong quá trình quản trị hệ thống, sẽ có lúc nhu cầu công việc yêu cầu các bạn phải thiết kế hệ thống mới, lên kế hoạch nâng cấp cho hệ thống hiện tại,…Tuy nhiên trong quá trình thiết kế, làm sao các bạn đảm bảo được hệ thống do các bạn thiết kế là tối ưu về mặt chi phí đầu tư và đáp ứng về mặt kỹ thuật.
    • Sizing là một bước chính trong quá trình thiết kế hệ thống, ở bước này bạn phải tính toán được là hệ thống chúng ta thiết kế đáp ứng cho bao nhiêu người dùng, tốc độ tăng trưởng dữ liệu hằng năm là bao nhiêu, số lượng người dùng tăng trưởng hàng năm, khả năng mở rộng của hệ thống ra sao…? Bạn phải nắm rõ được các thông tin cụ thể này thì bạn mới có thể thiết kế ra một hệ thống tối ưu về mặt kỹ thuật và chi phí đầu tư.
  13. Trang bị các kỹ năng mềm như quản trị dự án, quản lý thời gian, quản lý con người.

    • Ở cấp độ quản trị hệ thống bình thường, các kiến thức liên quan đến các kỹ năng này ít nhiều cũng giúp ích cho các nhà quản trị có được các kỹ năng để quản lý dự án, sắp xếp thời gian để xử lý công việc hiệu quả nhất. Tuy nhiên các lợi ích này nó dường như là vô hình bởi vì chúng ta chưa thấy rõ lợi ích của chúng, hoặc là có thấy nhưng không nhiều. Tuy nhiên, các kiến thức này là yếu tố sống còn, là bàn đạp để các bạn tiến xa hơn trong sự nghiệp bởi vì những kiến thức này là xương sống của các nhà quản lý, các nhà quản trị dự án. Cho nên nếu có cơ hội, hãy trang bị ngay những kiến thức này, tất cả đều rất hữu ích cho bạn sau này.

 

Henry Nguyen – ITTraining

Một câu truyện về thế giới Hacker


Hacker người Ukraine – vũ khí lợi hại nhưng cũng là ác mộng của FBI

Câu chuyện bên dưới do trang Wired kể lại về một hacker người Ukraine đã tự nộp mình cho Mỹ, làm việc với FBI để tóm một số tin tặc khác. Nhưng rồi chàng hacker này lại quay sang tấn công AT&T và một số trang khác hòng lấy được tiền chuộc để tránh tiết lộ các thông tin mật và mã nguồn phần mềm VMWare. Câu chuyện này khá ly kì, không khác gì phim hành động, tuy hơi dài nhưng rất hấp dẫn nên anh em chịu khó xem hết. Qua đó, chúng ta cũng thấy được sự giúp đỡ tận tình của một nhân viên FBI trong quá trình giúp người hacker này thoát khỏi án nặng cả trên đất Mỹ lẫn sau khi anh quay lại Ukraine.

Đến Mỹ

Tháng 1/2001, Maksym Igor Popov, một chàng trai trẻ 20 tuổi, bước đi một cách lo lắng bên ngoài cửa Đại sứ quán Mỹ tại London. Người ta cứ tưởng anh là một sinh viên chuẩn bị xin visa đi du học, nhưng thực chất anh là một hacker, là một thành viên của một băng đảng tin tặc Đông Âu đã đột nhập và tống tiền nhiều công ty ở Mỹ. Giờ đây anh đang chuẩn bị gặp một nhân viên FBI, người sẽ đưa cho anh passport và một tấm vé tới Mỹ, đổi lại anh sẽ phải làm việc cho FBI dưới danh nghĩa là một chuyên gia bảo mật.

Popov lo lắng như cũng rất hứng thú. Anh đã bỏ lại phía sau đất nước Ukraine, bỏ lại cha mẹ và tất cả những gì thân thuộc với mình. Anh cũng là một người đang bị truy nã trên toàn thế giới, giống như hình tượng của một hacker trong những quyển tiểu thuyết mà anh thích. Giờ anh sẽ làm mới lại mình bằng cách “bán” những kiến thức về bảo mật cho chính phủ Mỹ để lấy mức lương tạm được, sau đó sẽ chuyển sang làm một startup Internet nào đó rồi trở nên giàu có. Và giờ đây, anh cùng với người nhân viên FBI đó đang trên đường sang Mỹ.

Ukraine-Hacker-FBI

Khi máy bay đáp xuống, mọi thảo thuận với Popov đã thay đổi một chút. Người nhân viên FBI từng tỏ ra thân thiện giờ đang ném Popov vào một căn phòng cách ly, sau khoảng 1 giờ thì quay lại với một công tố viên liên bang kèm theo một “đề nghị”: Popov sẽ trở thành người liên lạc của FBI, làm việc cả ngày và lừa những người bạn tội phạm của anh vào lưới FBI. Nếu từ chối, anh sẽ đi thẳng vào tù.

Popov bị sốc. Anh được đưa về một căn nhà ở Fair Lakes, Virginia với sự canh giữ 24 tiếng liên tục bởi FBI. Anh được hướng dẫn là hãy nói chuyện với những người bạn của mình bằng tiếng Nga, trong lúc đó FBI sẽ thu lại tất cả. Nhưng Popov có mánh riêng của mình. Anh giả vờ như hợp tác trong khi vẫn sử dụng các thuật ngữ Nga để cảnh báo đồng bọn của mình rằng anh đã nằm trong tay chính phủ Mỹ. Khi sự việc bị phát hiện 3 tháng sau đó, FBI đã giận dữ lôi anh khỏi căn nhà an toàn của mình và đưa vào một nhà tù nhỏ để chuẩn bị đối mặt với các cáo trạng về việc tống tiền lúc trước. Miệng thì anh chửi thề nhưng anh thật sự lo sợ. Hàng loạt công tố viên đang xếp hàng chờ để đưa anh vào tù.

Ngay lúc đó, một nhân viên FBI khác ở Santa Ana, California, và một đặc vụ tên Ernest “E. J.” Hilbert lại tin rằng chính phủ Mỹ đang cần Popov hơn bao giờ hết.

Đánh vào Western Union đòi tiền chuộc

Hilbert nhận ra Mỹ đang ở một thời khắc quan trọng về chiến tranh mạng. Trong những năm 1990, hack chủ yếu là để cho vui. Nhưng tới năm 2000, các nước Đông Âu bắt đầu ngập tràn thư rác, thư lừa đảo, trang web bị hack, trộm thẻ tín dụng… Việc hack khi đó đã dính dáng tới những tổ chức vì lợi nhuận. Năm 2001, hacker tại Ukraine và Nga đã mở trang web CarderPlanet chuyên bán thông tin cá nhân đã trộm được cũng như thông tin thẻ trên đó. CarderPlanet cho thấy một hiểm họa nổi lên với nền công nghệ toàn cầu: các vụ hack sẽ có khả năng mở rộng, không phải bình thường mà là rất nhanh.

Quay trở lại với Popov, anh lớn lên tại một thị trấn ở Ukraine nằm cách thủ đô Kiev 2km về phía tây. Anh bắt đầu tiếp xúc với máy tính năm 15 tuổi, khi đó cha của anh mang về một chiếc PC và một cái modem để lên mạng. Nó là một chiếc Poisk-I, bản sao chép do Ukraine làm dựa trên mẫu IBM XT. Khi được xem bộ phim Hackers (1995), Popov biết rằng anh sẽ là một hacker nằm ngoài vòng pháp luật, và anh sẽ kiếm tiền từ việc đó.

Popov không thiên về kĩ thuật như những người bạn của mình, nhưng anh lại có tài quản lý, thuyết phục người khác và khả năng thiên bẩm về ngôn ngữ. Anh bắt đầu kiếm tiền bằng cách xài những thẻ tín dụng trộm được, kèm theo khả năng tiếng Anh cực kì lưu loát để gọi điện và mua những thứ anh muốn. Cũng trong thời gian đó, các nhóm gangstar bắt đầu biết về những cú lừa đảo trực tuyến của Popov và bắt đầu xuất hiện tại nhà của anh để bàn chuyện “làm ăn”. Popov quyết định sẽ thử kiếm tiền bằng cách mạnh tay hơn. Anh sẽ trộm dữ liệu khách hàng của các công ty, sau đó liên hệ với công ty và cung cấp dịch vụ “tư vấn bảo mật” để thông tin của vụ trộm không bị lộ ra ngoài, đổi lại công ty phải trả tiền cho Popov.

Tháng 7/2000, nhóm của Popov hack vào E-Money, một dịch vụ thanh toán ở Mỹ (nay đã giải thể) và trộm dữ liệu của 38.000 khách hàng. Họ cũng tấn công vào trang web của Western Union để lấy thêm 16.000 dòng dữ liệu về tên, địa chỉ, password và thông tin thẻ tín dụng. Popov tiếp cận những công ty này và đưa ra lời hứa hẹn sẽ ngừng tấn công, đồng thời im hơi lặng tiếng để đổi lại khoản tiền 50.000$ đến 500.000$.

Kết quả không như anh mong đợi. E-Money giả vờ thỏa thuận với anh trong khi vẫn liên lạc với FBI, Western Union thì thông báo rộng rãi về lỗ hổng này. Vậy nên Popov không thể lấy được tiền. Trong lúc đó, căng thẳng của anh với các tên gangster khác đang lên cao. Anh đang bị kẹt tại quê nhà của mình, giữa bộn bề những vụ lừa đảo và bạo lực. Anh nghĩ tới việc nộp mình cho Mỹ, để thoát khỏi Ukraine và “reboot” lại bản thân.

Giờ thì anh lại thấy mình đang ở trong một nhà tù gần văn phòng của Western Union, thật trớ trêu. Ít nhất là cho đến khi đặc vụ Hilbert tìm thấy anh.

Hilbert có kinh nghiệm giải quyết những tên hacker và các vụ án liên quan đến máy tính. Nói cách khác, Hilbert hiểu hacker nghĩ gì và muốn gì. Hilbert biết rằng với khả năng tiếng Nga và kinh nghiệm về bảo mật của Popov, anh ta có thể thâm nhập vào những nơi mà FBI không thể tới gần. Cụ thể, đó sẽ là những phòng chat ngầm, các bảng tin bị ẩn, các mối quan hệ, và đưa những thông tin quý giá đó cho FBI xử lý. Vấn đề ở đây là phải làm sao quản lý Popov thật kĩ lưỡng, đè lại cái tôi của anh ta và cho thấy FBI đang cần kĩ năng của anh.

Hilbert thảo luận kế hoạch của anh với một công tố viên ở Los Angeles, người đang thụ lý một vụ án của Popov, và sau đó hai người ngồi lại với Popov và luật sư của mình. Bốn người đồng ý với một bản thỏa thuận. Popov sẽ chỉ phải chịu một vụ án, những vụ còn lại sẽ được xóa nếu Popov dành thời gian làm gián điệp ngầm cho FBI. Lần này, anh phải đi nói chuyện với một nhóm người lạ, những người không hề tin tưởng Popov. Hilbert gọi đây là nhiệm vụ thu thập thông tin tình báo, giống như những gì James Bond làm. “Tôi thật sự rất xem trọng kĩ năng của anh” – Hilbert nói. Tháng 3/2002, Popov kí vào bản thỏa thuận và Hilbert có được một chú chuột chũi của mình.

Bắt đầu làm việc

Sau chuyến bay dài, Hilbert dẫn Popov vào một căn phòng trong ngày làm việc đầu tiên. Ở đây có một cái ghế, một cái bàn và rất nhiều máy tính Windows thu được từ những vụ đột nhập. Hilbert còng cùi chỏ của Popov vào bàn.

Họ gọi nhiệm vụ này là “Ant City”. Giờ Popov đã online trở lại, anh sử dụng một danh tính mới và bắt đầu thâm nhập vào các phòng chat ngầm cũng như đăng thông tin lên CarderPlanet. Anh đóng giả là một tên lừa đảo người Ukraine đang đi săn thông tin thẻ tín dụng bị đánh cắp. Mục tiêu của anh bây giờ là bắt được một trong những người đứng đầu của CarderPlanet, người được biết tới với nickname Script. Popov bắt đầu liên hệ vào đầu tháng 9, cả hai bắt đầu chat riêng qua phần mềm ICQ vốn được ưa chuộng ở Châu Âu. Hai tuần sau, Popov quyết định mua 400$ dữ liệu thẻ tín dụng. Khi gửi dữ liệu này cho Popov ở California, Script đã phạm một tội liên bang ở Mỹ. Bằng chứng của Hilbert sau đó giúp cảnh sát Ukraine bắt được Script, tuy nhiên 6 tháng sau hacker này đã được thả.

Việc thu thập bằng chứng như thế này là một thứ quan trọng và chiến lược với Hilbert. Bằng cách rải một ít tiền để Popov tạo dựng mối quan hệ, họ sẽ có được một số thông tin thẻ. Dựa vào đây, Hilbert có thể làm việc với các đơn vị phát hành để xác định nguồn gốc của thẻ và nguyên nhân rò rỉ.

Ukraine-Hacker-FBI-2

Một số ngày thì ngắn, một vài ngày thì dài đến 10 tiếng làm việc. Tuy nhiên, mặc cho Popov có thành công đến đâu thì tới cuối ngày, anh vẫn quay trở lại tù, còn Hilbert thì về nhà với gia đình. Nhưng vào ngày lễ tạ ơn, Hilbert đã chuẩn bị một món quà bất ngờ cho Popov. Hôm đó, khi Popov tới chỗ làm, anh thấy một cái projector đã được dựng sẵn và đang chĩa vào tường. Hilbert nhấn một vài phím trên laptop và bộ phim “The Fellowship of the Ring” bắt đầu được chiếu lên. Bữa trưa, Hilbert đem đầy đủ các món Tạ Ơn: gà tây, sốt cranberry, khoai lang, thậm chí có cả bánh bí đỏ. Popov cảm thấy cảm động vì Hilbert đã chọn dành thời gian của ngày lễ này với anh thay vì với gia đình.

Vụ án 200.000$

Khi thông tin về Ant City bắt đầu lan rộng, Hilbert nhận được yêu cầu giúp đỡ từ các văn phòng FBI khác để tìm hiểu về một số vụ hack đang diễn ra. Tháng 2 năm 2003, có một vụ lớn chưa từng có: một kẻ nào đó đã xâm nhập vào Data Processing International (DPI) – một đơn vị xử lý thanh toán, để trộm thông tin của 8 triệu thẻ. Popov bắt đầu hỏi về DPI và có một sinh viên 21 tuổi ở Nga với nickname là RES, biết về 3 hacker chịu trách nhiệm của vụ án này.

Popov nói anh muốn mua hết 8 triệu thẻ đó với 200.000$, tuy nhiên anh cần một mẫu thử nghiệm nhỏ trước. Mẫu nhỏ này sẽ giúp anh xác định xem thẻ có thật sự đến từ vụ rò rỉ của DPI hay không. RES không tin Popov có đủ tiền để chi trả vì từ trước đến giờ anh chỉ thực hiện các thương vụ nhỏ.

Hilbert nghĩ ra một giải pháp. Hilbert, Popov và một số nhân viên FBI khác đi tới một ngân hàng gần đó. Ngân hàng đã đồng ý giúp đỡ bằng cách lấy tiền từ trong két ra và để trên bàn. Hilbert tháo còng cho Popov và quay một video cảnh Popov đang cầm tiền. “Hãy nhìn vào đống tiền này đi. Chúng rất thật (chửi tục), không có gì giả cả (chửi tục). Tôi sẽ chuyển nó vào tài khoản của mình”.

Ukraine-Hacker-FBI-3

Đoạn video đã làm cho nhóm hacker Nga hài lòng. Việc xác định ra RES còn dễ dàng hơn. Popov nói với hacker này rằng số tiền của anh đến từ công việc ở một công ty thẻ tín dụng tên là HermesPlast. Popov gợi ý RES hãy nộp đơn xin việc làm vào đây, gửi cho hắn ta trang web công ty và chia sẻ email của “ông sếp”, “Anatoly Feldman”.

RES gửi cho Feldman hồ sơ vào cùng ngày hôm đó, kèm theo là chứng minh nhân dân Nga của hắn. Tất nhiên, HermesPlast là công ty giả của Hilbert và Popov. Giờ FBI(web.com) đã có tên thật của RES, ngày sinh và địa chỉ. Và thật ngạc nhiên khi mánh này có thể được dùng đi dùng lại. Có một sự thật mà Popov luôn biết chắc về những hacker Đông Âu: họ thật sự muốn có một công việc.

Lần này, FBI là mục tiêu

28 tháng sau khi đến Mỹ, Popov được trả tự do ở hạt Orange, California, cách Disneyland 8 dặm. Tuy nhiên, anh không có giấy tờ nhập cư rõ ràng nên khó xin việc. Hilbert sắp xếp để FBI thuê cho Popov một căn hộ và trả lương 1000$/tháng cho anh. Nhưng Popov không thể quen được với cuộc sống này. Với sự cho phép của tòa, Popov được phép về lại Ukraine với điều kiện anh sẽ quay trở lại Mỹ sau khi đã hoàn thành án phạt của mình. Hilbert chở anh ra sân bay và biết rằng sẽ không bao giờ gặp lại Popov nữa.

Chương trình Ant City cũng đóng cửa. Theo thống kê của Hilbert, chiến dịch đã tránh cho 400.000 tài khoản thẻ tín dụng không bị phát tán ra thị trường chợ đen, đồng thời cảnh báo cho 700 công ty rằng họ đang hoặc đã bị tấn công bởi các hacker. 10 nghi phạm đã bị kết án, trong đó có Script, nhưng không có tên nào được giao cho Mỹ.

Khi về lại Ukraine, Popov lập một công ty về bảo mật của riêng mình tên là Cybercrime Monitoring Systems, gọi tắt là Cycmos. Cycmos chuyên thâm nhập vào các chợ ngầm và thông báo cho các công ty đang trở thành mục tiêu. Hilbert đồng ý. Có vẻ như anh đang biến kĩ năng mình học được từ Ant City thành một doanh nghiệp hoàn toàn đúng pháp luật.

Đến giao thừa năm 2004, điện thoại của Hilbert reo lên. Là Popov gọi. “Anh biết không, tôi có tin mới đây”. Đã có một vụ tấn công lớn, lần này FBI chính là nạn nhân. Popov đang theo dõi một nhóm hacker sử dụng công nghệ tên là X.25, nó được dùng để vận hành các mạng ở thập niên 70 và 80. Tới năm 2004, X.25 đã rất cũ nhưng vẫn còn nhiều doanh nghiệp và đơn vị chính phủ kết nối vào.

Dựa vào lỗ hổng của X.25, nhóm hacker đã đánh vào được một data center (trung tâm dữ liệu) của AT&T ở New Jersey, đây là nơi đặt mail server của rất nhiều cơ quan chính phủ Mỹ. Một trong số đó có FBI, và nhóm người Nga này đã có quyền truy cập vào địa chỉ của mọi nhân viên FBI.

Hilbert nhanh chóng gọi cho sếp của mình và dẫn đầu một cuộc điều tra. Hilbert đồng ý trả cho Cycmos 10.000$ để mua bất kì tài liệu nào bị rò rỉ cũng như biết danh tính của các hacker. Popov đến và đưa ra 2 tài liệu, một trong số đó liên quan tới CarderPlanet và một tài liệu khác về bảo mật. Tất cả đều được đánh dấu là tài liệu mật và không được chuyển qua Internet. Một số trang còn ghi danh tính của hơn 100 hacker đang trong tầm ngắm, nhiều người được đánh dấu là “mục tiêu ưu tiên cao” hoặc “đang phối hợp với chính phủ”. Nhà Trắng cũng được cảnh báo, đưa vụ việc lên tầm cao hơn.

Sau đó, Popov đưa Hilbert vào một phòng chat ngầm và tìm thấy gã lãnh đạo người Nga của nhóm X.25. Rất nhanh chóng, Hilbert bắt đầu nói chuyện với Leonid “Eadle” Sokolov, một sinh viên kĩ thuật ở Saint Petersburg, Nga. Khi được hỏi, Sokolov thừa nhận mình là người đã đột nhập vào AT&T và trộm tài liệu. Vậy là Hilbert đã có được hắn. Đây là vụ án lớn nhất trong sự nghiệp của Hilbert.

Nhưng rồi có một vấn đề nhỏ. Vào ngày 10/2/2005, Hilbert được gọi vào một cuộc họp, ở đó có 5 giám sát viên và một người công tố đang giận dữ qua điện thoại. Hóa ra, cũng có nhiều doanh nghiệp khác bị ảnh hưởng từ vụ X.25, trong số đó có EMC và mã nguồn của phần mềm ảo hóa nổi tiếng VMWare đã bị khai thác. Nếu mã nguồn này lộ ra, hacker từ khắp mọi nơi có thể dò lỗ hổng của nó. Trong trường hợp xấu nhất, hacker có thể thoát ra khỏi máy ảo và đánh vào hạ tầng thật bên dưới.

Với danh nghĩa “Denis Pinhaus”, Popov đã tiếp cận EMC và cảnh báo về vấn đề này. Với mức giá đúng, Popov hứa sẽ không để mã nguồn lọt ra ngoài và cung cấp thông tin kĩ thuật cho EMC về lỗ hổng. Để đảm bảo, anh ta đưa ra liên hệ của E. J. Hilbert để làm tin. EMC khi đó xem lời chào hàng này như là một nỗ lực chống lại luật và đã báo cáo cho văn phòng luật sư. Vụ việc tới tay của Stephen Heymann, một công tố viên “cứng cựa”, người cũng đã thụ lý vụ án Aaron Swartz. Giờ đây, đặc vụ Hilbert đang bị điều tra bởi Bộ tư pháp.

Heymann muốn biết người tên Pinhaus này là ai, và muốn tên thật của hắn để dẫn độ từ Ukraine về Mỹ. Hilbert nói rằng Heymann có thể thoải mái lục tìm hồ sơ của FBI để tìm ra tên thật của Pinhaus, ông cũng có thể thoải mái soạn thảo các đơn kiện với cái tên Pinhaus, nhưng ông sẽ không lấy được thông tin đó từ Hilbert. Rõ ràng, Heymann không hài lòng. Trước đó ông đã từng bỏ tù một nhân viên FBI khác khi cố gắng bảo vệ một kẻ sát nhân để giữ cho hắn ta tiếp tục làm người liên lạc.

Một người giám sát yêu cầu Hilbert rời khỏi phòng. Anh đi tới máy tính của mình và nhắn tin cho Popov. “Anh phải dẹp vụ này ngay, được không? Điều này rất quan rọng. Mọi người đang theo dõi vụ này”.

Sau đó, Hilbert quay trở lại với vụ AT&T. Sokolov bị buộc tội và cảnh báo đã được gửi tới Interpol. Khi Sokolov rời nước Nga và đến nước nào có hiệp định dẫn độ với mình, hắn ta sẽ bị bắt ngay lập tức. Popov được trả tiền và được gửi một bức thư cảm ơn từ FBI để gắn lên website của mình. Tất cả mọi thứ nhanh chóng chìm vào quá khứ.

4 tháng sau, FBI yêu cầu Hilbert cắt mọi liên lạc với Popov và giao nộp 600 trang dữ liệu chat giữa hai người trong vòng 18 tháng qua. Hilbert cũng không còn công tác tại bộ phận tội phạm mạng nữa mà chuyển sang bộ phận chống khủng bố.

Hilbert dần dần nhận ra có gì đó không ổn. Đồng nghiệp ngừng nói chuyện với anh, khi anh nộp đơn vào vị trí giám sát ở Los Angeles thì bị đưa ra khỏi danh sách và được thông báo là không nộp đơn lại. Lúc này, Hilbert mới biết mình đang bị điều tra trong cả năm qua vì tội âm mưa lừa đảo chính phủ, tiết lộ thông tin mật cho bên ngoài (là khi anh nói cho Popov về vụ EMC).

Hilbert cảm thấy tuyệt vọng. FBI là công việc mơ ước của anh, nhưng vụ việc đã chấm dứt tất cả. Anh còn có 2 đứa con ở nhà và một đứa thứ 3 sắp ra đời. Anh dần dần tìm việc ở các công ty tư nhân và đến tháng 2/2007, anh chính thức nghỉ việc ở FBI.

Ukraine-Hacker-FBI-4

Mọi chuyện kết thúc…

Khi Popov gọi lại cho Hilbert, lúc đó anh đang làm ở vị trí tư vấn viên. Trong hơn 6 năm kể từ lần cuối họ nói chuyện, Hilbert mới nhận lại được cuộc gọi từ một người “quen”. Lần này, Popov không có thông tin rò rỉ hay bất kì thứ gì khác, anh chỉ nói lời cảm ơn. “Anh ấy gọi tên để cảm ơn về cách tôi đối xử với ảnh trong thời gian ở tù. Giờ anh ấy đã về nhà, thay đổi cuộc sống, lập gia đình. Anh ấy nợ tôi tất cả”.

Vụ điều tra lúc đó vẫn chưa kết thúc. Đã có lúc các nhà điều tra đến tận văn phòng anh để đặt câu hỏi. Năm 2009, Hilbert được tuyên miễn tội khi Bộ tư pháp hủy các cáo buộc.

Nhưng có một thông tin mà sau này người ta mới biết, đó là EMC đã âm thầm trả cho Popov 30.000$ để lấy thông tin về lỗ hổng, đồng thời hứa trả thêm 40.000$ nữa trong vòng 4 năm sau nếu mã nguồn không bị phát tán. Popov giữ đúng lời hứa, nhưng khi yêu cầu EMC trả số tiền còn lại thì EMC đã vờ như không có gì xảy ra.

Vậy là Popov quyết định trả thù. Popov tạo một danh tính online mới là “Hardcore Charlie” và ngày 23/4/2012, 520 dòng code đầu tiên của VMWare xuất hiện. Nhiều chức năng của nó vẫn còn xuất hiện trong các sản phẩm VMWare đến tận ngày nay. Lúc này, EMC mới đi thuê tất cả những chuyên gia bảo mật mà họ có thể tìm được để vá hết các lỗ hổng. 10 ngày sau đó, bản cập nhật đầu tiên được phát hành. Khi Popov đưa ra một số lượng code lớn hơn vào tháng 11/2012 thì tất cả lỗ hổng quan trọng đều đã được bít lại.

Popov cũng thừa nhận rằng anh chính là người đứng sau vụ X.25 cùng với Sokolov. Ban đầu, cả hai chỉ định đòi 150.000$ từ AT&T để giữ bí mật về vụ việc nhằm tránh ảnh hưởng tới các hợp đồng với chính phủ. Chỉ khi AT&T từ chối trả tiền thì Popov mới gọi cho FBI. Popov nói anh không cố ý để Hilbert dính vào vụ lừa này. Anh ấy vẫn nhớ về ngày lễ tạ ơn năm 2002, về con gà tây, về bộ phim. “Anh ấy là người bạn duy nhất mà tôi có. Tôi vẫn quý anh ấy, ngay cả khi giờ đây anh ấy không còn ở gần tôi nữa. Tôi vẫn là một hacker mũ đen, và tôi không bao giờ thay đổi. Nhưng ai quan tâm chứ? Tôi vẫn quý anh ấy.” – Popov nói về Hilbert.

 

Nguồn: Wired

https://www.topitworks.com/blogs/hacker-nguoi-ukraine-vu-khi-loi-hai-nhung-cung-la-ac-mong-cua-fbi/

Tìm hiểu thêm về Quản Trị Mạng: Network Administrator


Network Admin Careers

How network admins can survive SDN

Network engineers with programming skills may be the best suited to make sure everything runs smoothly in the SDN/DevOps environment. The server admin and the application developer can define what the application or workload needs; but the network admin can make it work down to the device level, and ensure it stays up.

Salisbury recommends network admins become steeped in the software building blocks of SDN and DevOps: Linux; Puppet and Chef provisioning; Python scripting; and popular provisioning and orchestration projects such as Docker for containers and Openstack for virtual machines. Continue reading this article at Network World

Network programming skills from scripting to DevOps: What to learn

Whether they write modules or apps or just write some code directly on a switch, engineers should explore how programming skills can help them get more out of their infrastructure. There are plenty of opportunities to explore, and Edelman hopes that switch vendors open their platforms further to allow engineers with programming skills to do more.

“Over the next six months or year, there is going to be a need to keep doing what a few of us are doing … to educate the community on what tools are out there,” Edelman says. “Right now some network engineers are not even aware of tools like Puppet, Chef and Ansible. I’m not saying these are the right tools for the network space, but the more we can start thinking like DevOps engineers, it will help the way we approach networking in the future.” Continue reading this article at Tech Target

What are the responsibilities of a Server Admin, System Admin, and Network Administrator? What do these people do in a real job environment?

In a development environment, I have often been responsible for automating our procedures; for instance, I might be responsible for setting up nightly builds of our software, and setting up virtual machines for testing those builds. This requires a lot of scripting; it’s good to at least know BASH and PERL (or PYTHON) on the UNIX/Linux side.

As a network admin, I’d be responsible for configuring and maintaining our routers, switches, vpns, and firewalls. I’d be responsible for the first line of protection against Internet attacks: making sure there are no holes in our firewall, making sure that remote access is strictly controlled, auditing our safety procedures, etc. I’d also be responsible for making sure that machines that needed fast access to each other had it (a much bigger problem in previous years than now, but then again, now you have to deal with things like VPNs connecting your remote offices across the Internet, much cheaper than dedicated lines). Network admin can encompass a lot of territory; I’ve done things like wiring up phone closets and making my own ethernet cables. Continue reading this thread at Quora

The Return Of The IT Generalist

Will virtualization return us to this bygone age? Is this the time of the next generation of generalists in which a system or network administrator will have to understand all different aspects of the data center, progressively impacted by the DevOps trend? Cloud computing and virtualization continue to ignore staid IT organizational structures, defying categories, like mixing peanut butter and chocolate to come up with a new and improved version of the infrastructure.

Cisco’s recent announcement of its own particular flavor of the software-defined network (SDN), courtesy of its Insieme subsidiary, provides evidence of the new order. Cisco’s Application Centric Infrastructure (ACI) is part of the new wave of the fuzzy infrastructure, in which the traditional lines delineating groups are no longer clear as the data center becomes the application. Continue reading this
article at Network Computing

What is the difference between a network admin and a system admin?

The basic difference, according to Ars Tecnica and Wikipedia, is that Network Admins manage and maintain network configurations and network equipment (e.g., IP schemes, VLANs, switches, VPNs, routing, etc) while Systems Administrators manage and maintain system-level configurations and equipment (e.g., servers, applications, image deployment, AD/DHCP/DNS, etc). The source of the confusion is mainly that these things are not mutually exclusive. A SysAdmin may have to create a DHCP scope, but s/he’ll consult a NetAdmin for what that range ought to be. Additionally, who determines how certain shares are farmed out to the network? Well, they both have input into that. Further, who sets up and maintains the RDP over VPN functions? Again, they both do.

I hope that helps! Continue reading this thread at Spice Works

A Quick Guide to Network Administrator Course and Jobs

Employment Outlook and Demand for Network Administrators

Since the IT industry is growing rapidly and is expected to grow even more in coming years, network administrators have great job opportunities. These jobs are fairly compensated too. Though, your choice of organisation and expertise are the deciding factors in this case. The more skilled you are and bigger the responsibility, the better is the salary. With a relevant training and degree in network administration, you can work in almost any industry because almost all the industries are dependent on computer systems and networks for functioning. Continue reading this article at Linux

Network Administrator vs Web/Software Developer vs blend of both?

I picked up some C+ books to learn more about programming a few months ago and I can see why some people really enjoy it. The coding is quite logical. I am actually planning to change careers and make something out of Information Technology or Software development. I don’t mind going back to school or doing some distance to further my education. Both of these careers are different, but there’s some overlap and I wanted to see what you guys were doing and why you chose either.

I am under the impression that Network Administrators are usually on call and can be called in at 2am to fix a system error or if payroll systems are down. Whereas, Software Developers won’t be on call and have more flexibility to work from home if need be.

Do people usually have knowledge of both? Or is there a position that allows you to do both?

Why did you choose a particular field? Continue reading this thread at Red Flag Deals

How the Network Administrator Can Remain Relevant in the Age of IT Generalization

Now, things have somewhat come full circle. Two factors in particular are driving those changes: the migration to the Software-Defined Network and the DevOps movement. Together, these trends mean that fewer businesses are looking just for a ‘network administrator’ or ‘application developer’ and more companies are once again investing in IT generalists.

IT generalists don’t necessarily have to know everything about everything. But they do have to be able to step up to the plate no matter what task is currently at hand. For instance, with the SDN, network administrators will be less valued for their ability to understand abstract and uncommon CLI languages, but more important to the organization because they have both networking troubleshooting skills and the ability to do some scripting or coding as needed. Continue reading this article at NetScout

Orchestrating Server Agents in a DevOps Delivery Chain

Server agent orchestration, of course, includes much more than conflict prevention. Most agents are designed to improve server operations, or provide added functionality. As automated background utilities, they make major contributions to the performance of the DevOps delivery chain. In the larger picture, server agent orchestration means optimizing agent interaction for maximum efficiency, and leveraging agent synergy to provide maximum support for your operational needs. Whether you are using an agent provided by one or two vendors, or are employing a variety of agents (both proprietary and open-source), a well-orchestrated set of server agents should perform more like a unified suite of support utilities than a collection of unrelated applications. Continue reading this article at Intigua

 

 

Refer: https://devopsjobs.me/2017/04/23/network-administrator/