Nowości w chmurze: Ubuntu OpenStack, Tata Communications, JFrog, Open BMC i Kaggle

Container-as-a-Service (CaaS), SSD Storage, & Otwórz Kontrolery zarządzania płytą główną

Ubuntu OpenStack opublikował w zeszłym tygodniu statystyki, które umieściły dystrybucję oprogramowania Linux na pierwszym miejscu pod względem udziału w rynku w zakresie zarządzania centrum danych w chmurze zbudowanym przy użyciu OpenStack do administrowania siecią. Ubuntu pochłonęło w 2017 r. 55% całkowitych inwestycji biznesowych w tym sektorze w porównaniu z rywalizującymi dystrybucjami platformy Linux dla przedsiębiorstw z Red Hat OpenShift i SUSE Cloud 7 z MicroOS. W Indiach firma outsourcingowa opracowująca oprogramowanie Tata Communications ogłosiła nowe wsparcie dla platformy chmurowej Container-as-a-Service (CaaS) opracowanej przez ich zespoły programistyczne jako rozwiązanie dla:


  • Przedsiębiorstwa takie jak telekomunikacja, bankowość / finanse, produkcja lub e-commerce szybko dostosowują się do modernizacji baz danych;
  • Produkcja niestandardowych aplikacji internetowych / mobilnych z obsługą hostingu w chmurze o wysokiej wydajności na najwyższym poziomie ruchu użytkowników;
  • Zarządzanie sprzętem chmurowym sieci publicznej / prywatnej / hybrydowej do publikowania w Internecie, aplikacji mobilnej, & Wymagania dotyczące produktu SaaS.

Tata Communications kontynuuje zapoczątkowany przez Infosys i Wipro trend w tworzeniu autorskich rozwiązań w chmurze prywatnej, które mogą być wykorzystywane przez zespoły outsourcingowe we wspieraniu wielu korporacji działających jednocześnie. Firmy integrujące mogą instalować Red Hat OpenShift, Ubuntu OpenStack, SUSE Cloud 7, CoreOS lub RancherOS z wirtualizacją Docker do zarządzania złożonymi rozwiązaniami dla klientów korporacyjnych za pomocą narzędzi programowych typu open source. Inne ważne ogłoszenia w tym tygodniu obejmowały nowe VMware, IBM, & Współpraca AWS w zakresie rozwiązań chmurowych; Microsoft ustanawia nowe standardy SSD / BMC dla producentów sprzętu & centra danych (Project Denali / Project Cerberus); oraz ciągłe wycofywanie się osób z wewnątrz w związku z przejęciem przez Google firmy Kaggle zajmującej się badaniami danych, w tym ich ekspertów ds. programowania, archiwów danych badawczych, & miliony klientów platformy AI / ML / DL. Zastosowanie Apache Hadoop wciąż szybko rośnie jako rozwiązanie "duże dane" wymagania, w tym Internet Rzeczy, e-commerce, samochody samojezdne, analityka sieci w chmurze, & technologia wyszukiwania.

Kontener jako usługa (CaaS), pamięć masowa SSD i otwarte sterowniki zarządzania płytą główną

Ubuntu OpenStack: 55% udziału w rynku vs. Red Hat OpenShift & SUSE Cloud 7 Distros

OpenStack został opracowany przez Rackspace & NASA około 2010 r. Jako zaawansowany system operacyjny centrum danych dla dużych wymagań przetwarzania w chmurze. Platforma jest modułowa i rozszerzalna, dzięki czemu firmy lub inne organizacje mogą ją dostosowywać zgodnie z ich specyficznymi wymaganiami centrum danych lub hostingu w chmurze, tj. Używać do serwerów internetowych w celu upublicznienia informacji lub hostowania serwerów baz danych na potrzeby operacji wewnętrznych itp. Oprogramowanie innych firm firmy deweloperskie mogą budować narzędzia rozszerzające OpenStack na nowe sposoby: monitorowanie sieci, równoważenie obciążenia, zdalne przechowywanie, interfejsy API, administracja serwera WWW, analiza danych, zapory ogniowe, szyfrowanie, & bezpieczeństwo. Ubuntu jest teraz "najpopularniejsza dystrybucja Linuksa dla OpenStack." W&T, Bloomberg, Paypal, eBay, Sky, & Walmart zarządza obecnie swoimi centrami danych i hostingiem w chmurze dla aplikacji internetowych / mobilnych za pomocą Canonical za pomocą Ubuntu / OpenStack na najwyższym poziomie ruchu sieciowego. Połączenie kolejnych 5 konkurentów w sektorze: Red Hat, SUSE, HP, Oracle, & IBM nawet nie równa się całkowitej liczbie zainstalowanych użytkowników Ubuntu w porównaniu z większością sprzętu serwerowego w chmurze z uruchomionym OpenStack w produkcji centrów danych dla usług hostingowych na poziomie korporacyjnym, głównie w architekturze chmury prywatnej dla firm z listy Fortune 500. Obecnie głównymi dystrybucjami OpenStack dla Linuxa są:

  • Ubuntu OpenStack
  • Red Hat OpenShift & Red Hat OpenStack
  • SUSE Cloud 7 (MicroOS)
  • HP Helion OpenStack
  • Oracle OpenStack
  • IBM Cloud Manager z OpenStack

Zaletą przyjęcia centrów danych dla firm tworzących oprogramowanie i sprzęt w branży IT jest fakt, że korporacje o największej działalności biznesowej mają również najwyższe wydatki budżetowe na zakup usług w chmurze. Poza dużymi instytucjami rządowymi i edukacyjnymi, korporacyjne budżety Fortune 500 to najbardziej intratne kontrakty dla sprzętu IT i firm tworzących oprogramowanie, & dostawcy usług w chmurze. Firmy integrujące rozwinęły się w ekosystemie OpenStack, wydając kod oprogramowania w ramach opłat abonamentowych lub stawek za licencjonowane użytkowanie, co dodaje bardziej złożone opcje wdrażania centrów danych biznesowych, na przykład: firma hostingowa celowała w instalacje OpenStack z systemem operacyjnym Linux i mechanizmem zarządzania kontenerami. Firmy integrujące świadczą usługi konsultingowe, kontraktowe, programistyczne lub outsourcingowe DevOps dla firm z listy Fortune 500 jako dostawcy rozwiązań outsourcingowych. Tata Communications ogłosiła niedawno platformę CaaS (Container-as-a-Service) opartą na prywatnej chmurze IZO ™, która będzie wykorzystywana do wspierania usług IT w organizacjach biznesowych. Te usługi chmury prywatnej konkurują z opcjami chmury publicznej dla organizacji IT o różnych poziomach synergii & koszt inwestycji złożonych organizacji, które potrzebują rozproszonych narzędzi do zarządzania zespołem do produkcji oprogramowania CI / CD, które mogą obejmować tysiące produktów lub miliony hostowanych domen.

Ubuntu OpenStack: 55% udziału w rynku w porównaniu do dystrybucji Red Hat OpenShift i SUSE Cloud 7

Integracja CI / CD z Dockerem:

Metodologie Continuous Integration (CI) i Continuous Delivery (CD) są kluczowymi cechami nowoczesnej praktyki tworzenia oprogramowania. Docker Enterprise Edition (Docker EE) może być katalizatorem tego sposobu myślenia DevOps, integrując się z preferowanymi narzędziami i istniejącymi praktykami w celu poprawy jakości i szybkości dostarczania innowacji.

Dowiedz się więcej o Docker & Gitlab CI / CD.

Tata Communications: Containers-as-a-Service (CaaS) w firmach outsourcingowych w branży IT

Platforma Tata Communications Container-as-a-Service (CaaS) pozwala administratorom systemów zrównoważyć sprawność zarządzania projektami za pomocą narzędzi wiersza poleceń DevOps. Platforma Tata CaaS zawiera wszystkie wymagane subskrypcje oprogramowania & ręczne zależności dla skryptów mikrousługowych uruchamianych w wirtualizacji kontenerowej. Platforma Tata CaaS obejmuje Bezpieczny rejestr obrazów do tworzenia migawek obrazu dysku serwera WWW w celu zapewnienia sprzętu w elastycznych klastrach. Pakiet oprogramowania obejmuje dostęp oparty na rolach dla pionowych klastrów działających równolegle dla wielozadaniowych programistów Agile z wieloma obsługiwanymi produktami do ćwiczenia wersji CI / CD i testowania w piaskownicy. Zabezpieczeniami kontenerów zarządza się poprzez uprawnienia dostępu użytkowników w każdym środowisku z osobna w celu kontroli chmury prywatnej. Dowiedz się więcej o platformie Tata Communications Container-as-a-Service (CaaS).

Tata Communications: Containers-as-a-Service (CaaS) w firmach outsourcingowych w branży IT

Foundation Cloud Build & BootStack:

Canonical zaprojektuje, zbuduje i będzie obsługiwał produkcyjną chmurę OpenStack w Twojej siedzibie od 15 USD za serwer dziennie. My’Na żądanie wyszkolę i przekażę kontrolę zespołowi. Jest to zalecany sposób szybkiego przejścia do produkcji, umożliwiający wydajne zwiększanie obciążenia i skupienie się na zużyciu chmury, a nie na infrastrukturze … Użyj Canonical’s wyczaruj, aby wdrożyć wielowęzłowy OpenStack. Dzięki kontenerom LXD wszystko mieści się na Twoim laptopie, w VMware, a nawet w chmurze publicznej. Idealny dla początkujących użytkowników lub programistów, którzy chcą przestudiować komponenty OpenStack w akcji. Użyj go z MAAS (‘Metal jako usługa’) w celu wdrożenia na wielu serwerach i skalowania do wielu szaf.

Dowiedz się więcej o Ubuntu OpenStack.

Dzięki hostingowi kontenerowemu firmy mogą wybrać plan Kubernetes na dużym hoście w chmurze, takim jak AWS, GCP lub Microsoft Azure, zamiast instalować sieć OpenStack na AWS EC2 niezależnie lub w prywatnym centrum danych w chmurze. Główną zaletą głównych dystrybucji Linuksa opartych na OpenStack (SUSE, Red Hat, & Ubuntu) polega na tym, że bezpieczeństwo platformy jest wcześniej testowane przez ekspertów, a pakiety oferują łatwość wdrożenia jako rozwiązanie na dużą skalę, w tym wsparcie klienta, instrukcje szkoleniowe, panele administracyjne i narzędzia do monitorowania sieci. Instalacje OpenStack w chmurze umożliwiają wyznaczenie jednego serwera jako hosta, który kontroluje sieci klastrowe za pomocą zwirtualizowanych partycji kontenerowych. Główną alternatywą jest chmura prywatna z OpenStack & Wdrożono Kubernetes dla operacji w centrum danych. Metody te są dość popularne w hostingu sieci Web do uruchamiania platform VPS i wspólnych planów CentOS razem na tym samym sprzęcie centrum danych lub w wielu lokalizacjach centrum danych na całym świecie. Główne alternatywy dla OpenStack, Kubernetes, & Docker jako rozwiązania open source to Mesosphere DC / OS, CoreOS Tectonic, & CloudStack. Główną zaletą tych platform jest to, że pozwalają one na lepszą alokację zasobów centrum danych w produkcji dzięki wirtualizacji kontenerów, a także wspierają wdrażanie serwerów WWW na dużą skalę z niestandardowymi wymaganiami dotyczącymi rozszerzenia kodu i języka programowania, od których aplikacje internetowe / mobilne zależą od głównych operacji Funkcje SaaS dla ogółu społeczeństwa. Apache Hadoop zapewnia narzędzia do nowej generacji aplikacji opartych na strumieniach danych, na przykład do zasilania analityki użytkowników Amazon.com lub samodzielnych sieci samochodowych.

Platforma Tata Communications Containers-as-a-Service (CaaS):

IZO ™ Private Cloud:

Zintegruj, zarządzaj i kontroluj swoje rozproszone środowiska IT za pomocą jednej platformy do aranżacji. Nasza otwarta i elastyczna platforma daje wybór hiperwizorów, systemów operacyjnych i pamięci. Nasze dedykowane lub wirtualne zintegrowane architektury bezpieczeństwa można konfigurować przy użyciu integracji dostępu opartego na rolkach (RBAC) i integracji protokołu LDAP (Lightweight Directory Access Protocol).

Dowiedz się więcej o komunikacji Tata.

Aby dowiedzieć się więcej o OpenStack, rozważ ebook od Mirantis: "OpenStack: The Path to Cloud" (2017). W przeciwnym razie VMware opublikowało w tym tygodniu kilka ważnych informacji o współpracy z IBM na platformie usług w chmurze, a także ze zdalnymi hostowanymi instalacjami vSphere na AWS dla rozwiązań biznesowych na dużą skalę. Również w trendach "Big Data" nowościami platformy jest Apache HiveMall, który pozwala programistom tworzyć aplikacje Machine Learning z bazami danych SQL. JFrog opublikował demo na temat tego, w jaki sposób programiści używają C i C ++ z Jenkins, Conan i JFrog Artifactory w celu zapewnienia serwerów sieci Web do obsługi złożonych aplikacji internetowych / mobilnych w środowiskach hostingowych. Brigade wydało nową aplikację do skryptowania zdarzeń dla Kubernetes.

Platforma Tata Communications Containers-as-a-Service (CaaS):

Apache Hadoop:

W projekcie Apache ™ Hadoop® opracowano oprogramowanie typu open source do niezawodnego, skalowalnego i rozproszonego przetwarzania. Biblioteka oprogramowania Apache Hadoop jest strukturą umożliwiającą rozproszone przetwarzanie dużych zbiorów danych w klastrach komputerów przy użyciu prostych modeli programowania. Został zaprojektowany do skalowania z pojedynczych serwerów na tysiące komputerów, z których każdy oferuje lokalne obliczenia i pamięć. Zamiast polegać na sprzęcie w celu zapewnienia wysokiej dostępności, sama biblioteka została zaprojektowana do wykrywania i obsługi awarii w warstwie aplikacji, dzięki czemu zapewnia wysoce dostępną usługę na klastrze komputerów, z których każdy może być podatny na awarie.

Dowiedz się więcej o Apache Hadoop.

Microsoft ogłosił wsparcie API dla programistów w zakresie korzystania z ich usług Custom Vision, Face API i Bing Entity Search przy tworzeniu aplikacji internetowych / mobilnych. Według ZDnet:

"Te interfejsy API i usługi należą do ponad 25 usług poznawczych, nad którymi pracuje Microsoft. W maju ubiegłego roku urzędnicy Microsoft podali, że 568,000 programistów korzysta z usług Cognitive Services, aby dodawać inteligentne AI do własnych aplikacji i usług. W tym tygodniu urzędnicy powiedzieli, że zarejestrowało się ponad milion programistów i korzystało z usług poznawczych Microsoft."

CMSwire pisze, że 80% firm inwestuje w sztuczną inteligencję i że w tym obszarze IT nastąpi gwałtowny wzrost w ciągu następnych 10-20 lat. Przede wszystkim istnieje ogromne zapotrzebowanie na przetwarzanie AI / ML / DL w autonomicznych sieciach pojazdów i pojazdów samochodowych, którymi będzie zarządzać w skali kontynentalnej bankami serwerów render-AI, hostami w chmurze, & Specjaliści IT. Po drugie, ten sam sprzęt może być wykorzystywany w Bitcoin, Blockchain i wydobywaniu walut wirtualnych, a także w grach & Aplikacje VR / AR, tj. Karty graficzne & TPU do uczenia maszynowego. Google, AWS i IBM już oferują programistom dostęp do serwerów TensorFlow w modelu hostingowym, który można zintegrować z aplikacjami i usługami biznesowymi za pomocą interfejsów API i niestandardowego oprogramowania. Wykorzystanie urządzeń mobilnych i tabletów również zmienia to, co programiści mogą zrobić z tymi narzędziami w sposób kreatywny lub zakłócający. Kwantowa supremacja, druk 3D w metalu, & Badania nad bozonem Higgsa to niektóre przykłady najbardziej zaawansowanych aplikacji wykorzystujących obecnie serwery AI / ML / DL w super-klastrach.

Apache Hadoop:

"Big Data" & AI / Ml / DL:

Wracając do zdobycia Kaggle; trzecia część stołka strategicznego Google opiera się na przygotowaniu społeczności naukowców zajmujących się danymi i ekspertów w dziedzinie uczenia maszynowego (w przyszłości i obecnie), którzy są przyzwyczajeni i czują się komfortowo w ekosystemie uczenia maszynowego Google. Niezależnie od tego, czy jest to niezwykłe wsparcie, które Google zapewnia projektowi Tensorflow (ostatnio obejmując bibliotekę do głębokiego uczenia się Keras), czy też bezpłatną edukację w formie wspólnych kursów na temat uczenia maszynowego i głębokiego uczenia się z Udacity, a teraz pozyskanie pół miliona entuzjastów uczenia maszynowego dzięki Kaggle ruchy te zapewniają, że zestaw narzędzi dla praktyków będzie oparty na standardach i technologii Google. Wydaje się, że pierwszym zleceniem po przejęciu jest przeniesienie jądra Kaggle’a "połączenie środowiska, danych wejściowych, kodu i danych wyjściowych" do Google Cloud.

Dowiedz się więcej o Google Kaggle Acquisition.

Każdy, kto chce dowiedzieć się więcej na temat analizy danych i uczenia maszynowego, może przeczytać:

  • Szkolenie dotyczące uczenia maszynowego z interfejsami API TensorFlow (2018)
  • Ranking „Wprowadzenie do nauki o danych” (2017)
  • Najlepsze kursy nauki danych w Internecie, rankingowe (2017)

Istnieje wiele doskonałych zasobów dostępnych online, które mogą sprawić, że doświadczeni programiści szybko rozpoczną pracę z TensorFlow w języku, który już znają technicznie. Badania danych Kaggle’a są dobrze szanowane naukowo & profesjonalnie na całym świecie, ze zintegrowanymi narzędziami rekrutacyjnymi i rekrutacyjnymi dla specjalistów.

Microsoft & projekt Open Compute: Nowe standardy oprogramowania układowego SSD Storage

Microsoft i projekt Open Compute: Nowe standardy oprogramowania układowego SSD Storage

Projekt Denali:

Project Denali to standaryzacja i ewolucja Open Channel, która definiuje rolę SSD w porównaniu do roli hosta w standardowym interfejsie. Zarządzanie mediami, korekcja błędów, mapowanie uszkodzonych bloków i inne funkcje właściwe dla generowania pamięci flash pozostają na urządzeniu, podczas gdy host odbiera losowe zapisy, przesyła strumienie sekwencyjnych zapisów, utrzymuje mapę adresów i wykonuje odśmiecanie. Denali umożliwia obsługę układów FPGA (programowalnych tablic bramek) lub mikrokontrolerów po stronie hosta.

Dowiedz się więcej o projekcie Open Compute.

Open Compute Project (OCP): Project Denali, Project Cerberus, & Projekt Olympus

Projekt OpenBMC & Linux Foundation kontynuował prace nad ustanowieniem standardów branżowych dla oprogramowania układowego kontrolera zarządzania płytą główną (BMC). Microsoft ogłosił Project Denali za standaryzację interfejsów oprogramowania wewnętrznego SSD, a także darowiznę Project Cerberus, mikrokontrolera kryptograficznego dla Open Compute Project (OCP) w celu dalszego wspólnego rozwoju. Według ZDnet:

"Przedstawiciele Microsoft w zeszłym roku opisali Cerberus jako kolejną fazę projektu Olympus, projektu serwera centrum danych, który firma przyczyniła się do OCP … Microsoft dołączył do Open Compute Project (OCP) w 2014 roku i jest członkiem-założycielem i współtwórcą projekt organizacji Switch Abstraction Interface (SAI). OCP publikuje otwarte projekty sprzętowe przeznaczone do stosunkowo taniego budowania centrów danych. OCP wydało już specyfikacje dla płyt głównych, mikroukładów, okablowania i wspólnych gniazd, złączy oraz otwartej sieci i przełączników."

Centra danych mogą nadal monitorować rozwój z Open Compute Project (OCP) w celu śledzenia zmian standardów w serwerze internetowym i sprzęcie sieciowym. Twórcy oprogramowania będą musieli monitorować te zmiany, aby wspierać standardy branżowe w aplikacjach. Pamięć SSD & szyfrowanie danych pozostaje jednym z najszybciej rozwijających się sektorów hostingu w chmurze.

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me
    Like this post? Please share to your friends:
    Adblock
    detector
    map