Amazon Web Services tworzy nowe narzędzia pod sztuczną inteligencję

Amazon Web Services
Amazon Web Services, fot. Shutterstock
Amazon Web Services (AWS) zaprezentował cztery nowe rozwiązania do uczenia maszynowego (ML), które będą wspierać generatywne zastosowania sztucznej inteligencji (AI).

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Są to: usługa chmurowa Bedrock służąca do tworzenia aplikacji wykorzystujących generatywną AI, chipy AWS Inferentia mogące obsłużyć większość obciążeń związanych z inferencyjnymi zastosowaniami AI, nowe instancje na chipach AWS Trainium pozwalające na szybsze uczenie modeli oraz swobodny dostęp do Amazon CodeWhisperer dla indywidualnych deweloperów.

Amazon Web Services: 100 tys. klientów skorzystało z narzędzi do rozwoju AI

Do tej pory ponad 100 000 klientów skorzystało z rozwiązań AWS wprowadzając innowacje w zakresie AI i ML. 

Amazon Bedrock: Łatwe tworzenie aplikacji wykorzystujących generatywną AI 

Amazon Bedrock to nowa usługa służąca do budowania i skalowania aplikacji wykorzystujących generatywną AI, czyli aplikacji, które mogą tworzyć teksty, obrazy, nagrania i dane syntetyczne zgodnie z otrzymanymi wskazówkami. Wykorzystując Bedrock, deweloperzy mogą ulepszyć swoje oprogramowanie za pomocą generujących teksty systemów sztucznej inteligencji. Bedrock zapewnia dostęp do najnowocześniejszych modeli językowych stworzonych przez dwa startupy zajmujące się opracowywaniem modeli językowych - Anthropic i AI21. AWS umożliwi również dostęp do Stable Diffusion, modelu sztucznej inteligencji służącego do generowania obrazów, oferowanego przez Stability AI - startup pracujący nad open-source’owymi, generatywnymi modelami AI. AWS stosuje dwa generatywne modele językowe – Titan Text potrafi generować tekst na bazie otrzymanych wskazówek, a Text Embeddings generuje matematyczne odzwierciedlenie tekstu, które może być użyte np. do tłumaczenia czy wyszukiwania.

Klienci mogą korzystać z Bedrock bez obawy, że przekazywane systemowi dane wyciekną do ogólnej puli danych stosowanych do szkolenia modeli, co stanowi odpowiedź na jedno z najpoważniejszych zastrzeżeń zgłaszanych przez organizacje chcące budować własne generatywne produkty AI. Zwłaszcza firmy przetwarzające dane wrażliwe klientów (np. firmy z branży usług finansowych czy opieki zdrowotnej) obawiają się o bezpieczeństwo danych. W trakcie interakcji może czasem dojść do sytuacji, w której poufne dane firmowe, takie jak raporty finansowe lub plany biznesowe, trafią do danych szkoleniowych modelu, przez co inni klienci uzyskają do nich dostęp. 

Przeczytaj także: Szymon Sidor, GPT4: Świat był gotowy na ChatGPT, ale nie jest gotowy na przyszłość

Chipy AWS Inferentia2: Niższe koszty zadań z wykorzystaniem generatywnej AI 

Ultra-duże modele do uczenia maszynowego wymagają ogromnej mocy obliczeniowej. Jak twierdzi AWS, chipy Inferentia cechują się najwyższą efektywnością energetyczną i najniższym kosztem uruchamiania na AWS złożonych i wielkoskalowych zadań z wykorzystaniem wnioskowania AI (np. uruchamianie modeli, odpowiadanie na zapytania w produkcji itp.). 

Generatywne modele wykorzystujące sztuczną inteligencję muszą być przeszkolone tak, by dawały właściwe wyniki. Nowe instancje działające na customowych chipach Trainium AWS oferują ogromne możliwości sieciowe, co ma kluczowe znaczenie dla szybkiego i efektywnego kosztowo trenowania modeli. Dzięki chipom Trainium deweloperzy będą mogli szkolić modele szybciej i taniej, co przełoży się na większą liczbę usług opartych na generatywnych modelach AI. 

Bezpłatny dostęp do Amazon CodeWhisperer

Amazon CodeWhisperer to wspierany przez sztuczną inteligencję system wspomagający kodowanie, dzięki któremu staje się ono szybsze i łatwiejsze. Wykorzystując generatywną sztuczną inteligencję, system podpowiada na bieżąco fragmenty kodu na podstawie komentarzy i wcześniejszego kodu wpisanego przez użytkownika. Indywidualni programiści mogą uzyskać dostęp do Amazon CodeWhisperer za darmo, bez żadnych ograniczeń użytkowania (do użytku profesjonalnego dostępne są również wersje płatne z funkcjami takimi jak dodatkowe zabezpieczenia klasy enterprise i funkcje administracyjne).

- Jako AWS odegraliśmy kluczową rolę w demokratyzacji ML udostępniając te rozwiązania każdemu, kto chce z nich korzystać, w tym ponad 100 000 klientów w firmach różnej wielkości i działających w różnych branżach – napisał w swoim blogu Swami Sivasubramanian, wiceprezes ds. baz danych, analityki i uczenia maszynowego w AWS. Przed nami jeszcze długa droga i już cieszymy się, jak wiele rozwiązań powstanie dzięki generatywnej AI w AWS. Naszą misją jest umożliwienie programistom – niezależnie od poziomu ich umiejętności – i organizacjom dowolnej wielkości wprowadzania innowacji za pomocą generatywnej sztucznej inteligencji. To początek nowego etapu jeśli chodzi o uczenie maszynowe - podaje firma.

 

ZOBACZ RÓWNIEŻ