Amazon deklaruje własną rewolucję w AI. Oto, co szykuje firma

Konferencja AWS
Konferencja AWS, fot. mat. prasowe
Podczas konferencji AWS re:Invent 2023 przedstawiciele firmy Amazon ogłosili szereg nowości. Głównym jest powtanie nowego asystenta biznesowego Amazon Q. Oprócz tego zaprezentowano szereg rozwiązań, które już niebawem trafią do oferty AWS.

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Poniżej przedstawiamy konkretne rozwiązania, o których mówiono podczas konferencji:

Amazon Q – nowy asystent AI dla biznesu

Amazon Q to nowy typ asystenta opartego na generatywnej sztucznej inteligencji (AI), zbudowany z myślą o bezpieczeństwie i prywatności. Umożliwia pracownikom firm uzyskiwanie odpowiedzi na pytania, rozwiązywanie problemów, generowanie treści oraz automatyzowanie wielu procesów, łącznie z zarządzaniem projektowym w oparciu o dane płynące z popularnych aplikacji biurowych. Amazon Q posiada wiele rozbudowanych funkcjonalności takich jak generowanie skomplikowanych raportów Business Intelligence (BI) oraz automatyzację wielu zadań programistów. Zaprojektowany, aby spełnić rygorystyczne wymagania korporacji, Amazon Q może spersonalizować swoje interakcje dla każdego użytkownika. Amazon Q, zgodnie z deklaracjami, nie wykorzystuje treści klientów biznesowych do trenowania swoich modeli podstawowych (FM).

- AWS od lat demokratyzuje dostęp do nowych technologii poprzez udostępnianie najbardziej zawansowanych rozwiązań firmom o różnej wielkości i różnym poziomie umiejętności technicznych. Robimy to kładąc zawsze nacisk na bezpieczeństwo i prywatność danych. Niezależnie od tego, na czym polega praca naszych klientów, Amazon Q jest potężnym dodatkiem do naszej rozbudowanej już oferty GenAI, który otwiera nowe możliwości dla każdej organizacji – powiedział dr Swami Sivasubramanian, wiceprezes ds. danych i sztucznej inteligencji.

Przeczytaj także: Inżynierowie OpenAI zarabiają 3,1 mln zł rocznie

Nowe procesory Trainium2 i Graviton4

AWS ogłosił kolejne generacje swoich procesorów: AWS Graviton4 oraz AWS Trainium2. Graviton4 zapewnia do 30% lepszą wydajność obliczeniową, o 50% więcej rdzeni i o 75% większą przepustowość pamięci niż procesory poprzedniej generacji, zapewniając najlepszą wydajność cenową i efektywność energetyczną dla szerokiego zakresu obciążeń działających na serwerach wirtualnych w AWS.

Trainium to linia procesorów opracowanych z myślą o obliczeniach związanych z generatywną sztuczną inteligencją, m.in. do szkolenia dużych modeli językowych (LLM). Trainium2 zaprojektowano tak, aby zapewniał do 4 razy szybsze szkolenie niż chipy pierwszej generacji. Będzie można je wdrożyć w klastrach serwerów UltraClusters zawierających do 100 000 chipów, umożliwiając uczenie modeli podstawowych (FM) i dużych modeli językowych (LLM) w bardzo krótkim czasie, poprawiając jednocześnie efektywność energetyczną nawet dwukrotnie.

- Procesory są podstawą wszystkich obliczeń, co czyni je krytycznym obszarem innowacji dla AWS. Dostosowując budowę naszych procesorów do konkretnych zadań, do których będą wykorzystywane, jesteśmy w stanie dostarczyć klientom najbardziej zaawansowaną infrastrukturę chmurową. Graviton4 to czwarta generacja, którą dostarczyliśmy w ciągu zaledwie pięciu lat. Jest najpotężniejszym i najbardziej energooszczędnym procesorem, jaki kiedykolwiek zbudowaliśmy dla szerokiego zakresu obciążeń roboczych. Wraz ze wzrostem zainteresowania GenAI, Tranium2 pomoże firmom trenować modele ML szybciej, przy niższych kosztach i lepszej efektywności energetycznej – powiedział David Brown, wiceprezes ds. obliczeń i sieci w AWS. 

Współpraca AWS i NVIDIA

Podczas konferencji AWS i NVIDIA ogłosiły rozszerzenie swojej strategicznej współpracy w celu dostarczenia zaawansowanej infrastruktury, oprogramowania i usług, które zasilą innowacje w zakresie generatywnej sztucznej inteligencji (GenAI). Połączą one najlepsze technologie NVIDIA i AWS – od najnowszych rozwiązań NVIDIA z procesorami graficznymi, CPU i oprogramowaniem AI, po zaawansowaną wirtualizację i bezpieczeństwo AWS Nitro System skalowalność UltraCluster – które są idealne do szkolenia modeli podstawowych (ML) i tworzenia generatywnych aplikacji AI.

W ramach rozszerzonej współpracy mającej na celu dalszy rozwój GenAI we wszystkich branżach, NVIDIA i AWS współpracują też nad projektem Ceiba, aby zaprojektować najszybszy na świecie superkomputer AI zasilany przez GPU – system na dużą skalę z GH200 NVL32 i interkonektem Amazon EFA, hostowany przez AWS dla własnego zespołu badawczo-rozwojowego NVIDIA. Ten pierwszy w swoim rodzaju superkomputer – wyposażony w 16 384 superchipy NVIDIA GH200 i zdolny do przetwarzania 65 eksaflopsów AI – będzie wykorzystywany przez NVIDIA do napędzania kolejnej fali innowacji w zakresie GenAI.

Współpraca z Anthropic i nowy model Claude 2.1

Model Claude 2.1 firmy Anthropic jest teraz ogólnie dostępny w Amazon Bedrock. Zapewnia kluczowe możliwości dla przedsiębiorstw, takie jak większe możliwości absorbcji danych, zmniejszone wskaźniki halucynacji, zwiększona dokładność w przypadku długich dokumentów, podpowiedzi systemowe oraz korzystanie z narzędzi beta do wywoływania funkcji i orkiestracji przepływu pracy. Amazon Bedrock to w pełni zarządzana usługa, która oferuje wybór wysokowydajnych modeli podstawowych (FM) od wiodących firm zajmujących się AI, takich jak Anthropic, wraz z szerokim zestawem możliwości, które zapewniają najłatwiejszy sposób tworzenia i skalowania generatywnych aplikacji AI za pomocą FM.

Amazon S3 Express One Zone ogólnie dostępne

Amazon Simple Storage Service (Amazon S3) Express One Zone to nowa wysokowydajna, jednostrefowa klasa pamięci masowej Amazon S3, stworzona specjalnie w celu zapewnienia spójnego, jednocyfrowego milisekundowego dostępu do danych dla aplikacji wrażliwych na opóźnienia. Amazon S3 to obiektowa pamięć masowa w chmurze o najniższych dostępnych opóźnieniach, z szybkością dostępu do danych do 10 razy większą i kosztami żądań do 50% niższymi niż Amazon S3 Standard, z dowolnej strefy dostępności AWS (AWS Availability Zone) w dowolnym regionie AWS.

W przypadku najbardziej wymagających obciążeń firmy mogą wybrać kolokację danych Amazon S3 Express One Zone w tej samej strefie dostępności AWS, co ich zasoby obliczeniowe, optymalizując wydajność obliczeniową i koszty przy jednoczesnym zwiększeniu szybkości przetwarzania danych. To najbardziej wydajna klasa pamięci masowej dla operacji wymagających dużej liczby żądań, takich jak uczenie maszynowe (ML), interaktywna analityka i tworzenie treści multimedialnych. Dzięki Amazon S3 Express One Zone firmy mogą skalować swoją pamięć masową w górę lub w dół w zależności od potrzeb i pracować z interfejsami API Amazon S3, z których korzystają obecnie.

- Miliony firm polegają na Amazon S3 we wszystkim, od tanich archiwalnych pamięci masowych po jeziora danych w skali petabajtów, i chcą rozszerzyć ich wykorzystanie do obsługi najbardziej wymagających aplikacji, w których liczy się każda milisekunda. Amazon S3 Express One Zone zapewnia najszybszą prędkość dostępu do danych dla aplikacji wrażliwych na opóźnienia i umożliwia firmom wykonywanie milionów żądań na minutę dla ich wysoce dostępnych zbiorów danych, jednocześnie zmniejszając koszty żądań i obliczeń – powiedział James Kirschner, dyrektor generalny Amazon S3 w AWS.

Przeczytaj: Wdrażanie AI w polskich firmach na dramatycznym poziomie. "Tylko 6 proc. firm jest na to przygotowana"

AWS przedstawia Amazon One Enterprise

Nowa usługa uwierzytelniania tożsamości poprzez rozpoznawanie dłoni, poprawia bezpieczeństwo przestrzeni fizycznych i zasobów cyfrowych, zmniejsza koszty operacyjne i zwiększa wygodę użytkowników, jednocześnie chroniąc dane osobowe. Zapewnia kompleksowe i łatwe w użyciu uwierzytelnianie, które poprawia bezpieczeństwo organizacji i pomaga zapobiegać jego kosztownym naruszeniom. Usługa umożliwia organizacjom zapewnienie szybkiego, wygodnego i bezdotykowego uwierzytelniania w celu uzyskania dostępu do fizycznych lokalizacji (np. centrów danych, budynków biurowych i mieszkalnych, lotnisk, hoteli i ośrodków wypoczynkowych oraz instytucji edukacyjnych), a także zasobów cyfrowych, takich jak ograniczone zasoby oprogramowania (np. dane finansowe i HR).

Amazon One Enterprise eliminuje koszty operacyjne związane z zarządzaniem tradycyjnymi metodami uwierzytelniania w przedsiębiorstwie, takimi jak identyfikatory i kody PIN. Administratorzy IT i ds. bezpieczeństwa mogą łatwo zainstalować urządzenia Amazon One i zarządzać użytkownikami, urządzeniami i aktualizacjami oprogramowania w konsoli zarządzania AWS.

- Technologia rozpoznawania dłoni Amazon One Enterprise została zaprojektowana w celu zapewnienia bardzo dokładnej usługi identyfikacji, która zwiększa ogólne bezpieczeństwo organizacji, oferując jednocześnie płynne zarządzanie uwierzytelnianiem przy niższych kosztach operacyjnych. Dzięki Amazon One Enterprise administratorzy bezpieczeństwa mają również scentralizowany widok wszystkich uwierzytelnień użytkowników w całej organizacji, co eliminuje stres związany z zarządzaniem wieloma rozwiązaniami kontroli dostępu. Firmy doceniają prywatność i wygodę swoich użytkowników, którzy mogą uzyskać dostęp do fizycznych lokalizacji i zasobów oprogramowania jednym ruchem dłoni – powiedział Dilip Kumar, wiceprezes AWS Applications.

ZOBACZ RÓWNIEŻ