Anthropic rozwija sztuczną inteligencję dzięki Claude 3.5 Haiku, ulepszonemu Claude 3.5 Sonnet z kontrolą komputerową oraz partnerstwu Palantir dla wywiadu i operacji obronnych rządu USA
Firma Anthropic wydała nowe wersje Claude 3.5 z ulepszonymi możliwościami w porównaniu z poprzednimi modelami Claude i konkurencyjnymi modelami AI. Partnerstwo z Palantir zapewnia wywiadowi i operacjom obronnym rządu USA akredytację Claude AI do użytku na dokumentach o klauzuli SECRET.
Claude 3.5 Sonnet został ulepszony dzięki możliwości bezpośredniego korzystania z komputera. Pozwala to sztucznej inteligencji kontrolować i obsługiwać komputery poprzez poruszanie myszą, otwieranie aplikacji, interakcję z oknami i korzystanie z narzędzi programowych jak człowiek. Nowo dodana funkcja została przetestowana w teście porównawczym OSWorld dla zadań otwartych i uzyskała prawie dwukrotnie lepszy wynik niż konkurencyjna sztuczna inteligencja na poziomie 14,9%, ale pozostaje w tyle za ludźmi z wynikiem 72,36%. Powodem takiej wydajności jest brak doświadczenia w nauczaniu Claude'a obsługi komputerów. Innymi słowy, ludzie mają trudności ze szkoleniem sztucznej inteligencji w zakresie prawidłowej obsługi komputera w zadaniach takich jak aktualizacja arkusza kalkulacyjnego o nowe dane z kilku plików.
Wydano również szybszą, mniejszą wersję o nazwie Claude 3.5 Haiku bez możliwości korzystania z komputera. Ta sztuczna inteligencja została zaprojektowana tak, aby reagować szybko, zamiast poświęcać kilka sekund na zastanowienie się nad odpowiedzią, zużywając przy tym znacznie mniej zasobów obliczeniowych. Skutkuje to znacznie niższymi kosztami podczas odpowiadania na prostsze pytania. W bezpośrednim porównaniu z OpenAI GPT-4o, konkurencyjnym modelem mini AI, Haiku konsekwentnie osiąga lepsze wyniki.
Anthropic i Palantir wypuściły silosową sztuczną inteligencję Claude AI we współpracy z Amazon Web Services (AWS) do użytku rządu USA w dokumentach niejawnych. Akredytowana przez Departament Obrony (DoD) usługa IL6 zapewnia amerykańskim agencjom możliwość przekształcania złożonych zadań z szybszym czasem realizacji i zmniejszonym obciążeniem pracą ludzką, na przykład podczas identyfikowania i namierzania kluczowych celów, jednocześnie chroniąc Amerykę.
Oprócz aplikacji Claude dla Android i Apple anthropic udostępnił wersje beta aplikacji Claude na komputery stacjonarne z systemami Windows i Mac. Czytelnicy, którzy mają więcej zastosowań AI, mogą wypróbować Dyktafon Plaud AI(sprzedawany tutaj na Amazon) do automatycznej transkrypcji i podsumowania godzin nudnych stand-upów.
Źródło(a)
Anthropic =====
Wprowadzenie do korzystania z komputera, nowy sonet Claude 3.5 i Claude 3.5 Haiku
Oct 22, 2024
5 minut czytania
Ilustracja przedstawiająca Claude'a nawigującego kursorem komputerowym
Aktualizacja (11/04/2024): Zmieniliśmy ceny Claude 3.5 Haiku. Model ten jest teraz wyceniony na 1 USD MTok wejściowy / 5 USD MTok wyjściowy.
Dziś ogłaszamy ulepszoną wersję Claude 3.5 Sonnet i nowy model Claude 3.5 Haiku. Ulepszona wersja Claude 3.5 Sonnet zapewnia wszechstronne ulepszenia w stosunku do swojego poprzednika, ze szczególnie znaczącymi zyskami w kodowaniu - obszarze, w którym już wcześniej była liderem. Claude 3.5 Haiku dorównuje wydajnością Claude 3 Opus, naszemu poprzedniemu największemu modelowi, w wielu ocenach przy podobnej prędkości do poprzedniej generacji Haiku.
W publicznej wersji beta wprowadzamy również nową, przełomową funkcję: korzystanie z komputera. Dostępna od dziś w API, deweloperzy mogą nakierować Claude'a na korzystanie z komputera w sposób, w jaki robią to ludzie - patrząc na ekran, przesuwając kursor, klikając przyciski i wpisując tekst. Claude 3.5 Sonnet to pierwszy pionierski model sztucznej inteligencji, który oferuje korzystanie z komputera w publicznej wersji beta. Na tym etapie jest on wciąż eksperymentalny - czasami uciążliwy i podatny na błędy. Udostępniamy korzystanie z komputera na wczesnym etapie, aby uzyskać informacje zwrotne od programistów i oczekujemy, że z czasem możliwości te ulegną szybkiej poprawie.
Asana, Canva, Cognition, DoorDash, Replit i The Browser Company już zaczęły badać te możliwości, wykonując zadania, które wymagają dziesiątek, a czasem nawet setek kroków. Przykładowo, Replit wykorzystuje możliwości Claude 3.5 Sonnet w zakresie obsługi komputera i nawigacji po interfejsie użytkownika do opracowania kluczowej funkcji, która ocenia aplikacje w trakcie ich tworzenia dla produktu Replit Agent.
Uaktualniona wersja Claude 3.5 Sonnet jest już dostępna dla wszystkich użytkowników. Od dziś deweloperzy mogą tworzyć aplikacje z wykorzystaniem wersji beta na Anthropic API, Amazon Bedrock i Google Cloud's Vertex AI. Nowa wersja Claude 3.5 Haiku zostanie wydana jeszcze w tym miesiącu.
Claude 3.5 Sonnet: Wiodące w branży umiejętności inżynierii oprogramowania
Zaktualizowana wersja Claude 3.5 Sonnet wykazuje szeroki zakres ulepszeń w branżowych testach porównawczych, ze szczególnie dużymi zyskami w kodowaniu agentowym i zadaniach związanych z użyciem narzędzi. Jeśli chodzi o kodowanie, poprawia wydajność w SWE-bench Verified z 33,4% do 49,0%, uzyskując wyższe wyniki niż wszystkie publicznie dostępne modele - w tym modele rozumowania, takie jak OpenAI o1-preview i wyspecjalizowane systemy zaprojektowane do kodowania agentowego. Poprawia również wydajność w TAU-bench, zadaniu wykorzystania narzędzi agentowych, z 62,6% do 69,2% w domenie handlu detalicznego oraz z 36,0% do 46,0% w bardziej wymagającej domenie linii lotniczych. Nowy Claude 3.5 Sonnet oferuje te ulepszenia w tej samej cenie i z tą samą szybkością, co jego poprzednik.
Wczesne opinie klientów sugerują, że ulepszony Claude 3.5 Sonnet stanowi znaczący skok w kodowaniu opartym na sztucznej inteligencji. Firma GitLab, która przetestowała model pod kątem zadań DevSecOps, stwierdziła, że zapewnia on lepsze rozumowanie (do 10% w różnych przypadkach użycia) bez dodatkowych opóźnień, co czyni go idealnym wyborem do zasilania wieloetapowych procesów tworzenia oprogramowania. Firma Cognition wykorzystuje nową wersję Claude 3.5 Sonnet do oceny autonomicznej sztucznej inteligencji i doświadczyła znacznej poprawy w zakresie kodowania, planowania i rozwiązywania problemów w porównaniu z poprzednią wersją. Firma The Browser Company, wykorzystując model do automatyzacji internetowych przepływów pracy, zauważyła, że Claude 3.5 Sonnet przewyższył każdy model, który wcześniej testowali.
W ramach naszych ciągłych wysiłków na rzecz współpracy z zewnętrznymi ekspertami, wspólne testy przedwdrożeniowe nowego modelu Claude 3.5 Sonnet zostały przeprowadzone przez amerykański Instytut Bezpieczeństwa AI (US AISI) i brytyjski Instytut Bezpieczeństwa (UK AISI).
Oceniliśmy również ulepszoną wersję Claude 3.5 Sonnet pod kątem ryzyka katastrofy i stwierdziliśmy, że standard ASL-2, jak określono w naszej Polityce odpowiedzialnego skalowania, pozostaje odpowiedni dla tego modelu.
Claude 3.5 Haiku: Nowoczesność łączy się z przystępną ceną i szybkością
Claude 3.5 Haiku to kolejna generacja naszego najszybszego modelu. Przy podobnej szybkości do Claude 3 Haiku, Claude 3.5 Haiku poprawia się w każdym zestawie umiejętności i przewyższa nawet Claude 3 Opus, największy model z naszej poprzedniej generacji, w wielu testach inteligencji. Claude 3.5 Haiku jest szczególnie silny w zadaniach związanych z kodowaniem. Przykładowo, uzyskał on wynik 40,6% w SWE-bench Verified, przewyższając wielu agentów korzystających z publicznie dostępnych najnowocześniejszych modeli - w tym oryginalnego Claude 3.5 Sonnet i GPT-4o.
Dzięki niskim opóźnieniom, ulepszonemu śledzeniu instrukcji i dokładniejszemu wykorzystaniu narzędzi, Claude 3.5 Haiku doskonale nadaje się do produktów skierowanych do użytkowników, wyspecjalizowanych zadań podagentów i generowania spersonalizowanych doświadczeń z ogromnych ilości danych, takich jak historia zakupów, ceny lub rekordy zapasów.
Claude 3.5 Haiku zostanie udostępniony jeszcze w tym miesiącu za pośrednictwem naszego własnego API, Amazon Bedrock i Google Cloud's Vertex AI - początkowo jako model tekstowy, a następnie z wprowadzaniem obrazu.
Uczenie Claude odpowiedzialnego korzystania z komputerów
Jeśli chodzi o korzystanie z komputera, próbujemy czegoś zupełnie nowego. Zamiast tworzyć konkretne narzędzia pomagające Claude'owi w wykonywaniu poszczególnych zadań, uczymy go ogólnych umiejętności obsługi komputera - umożliwiając mu korzystanie z szerokiej gamy standardowych narzędzi i programów zaprojektowanych dla ludzi. Deweloperzy mogą wykorzystać tę rodzącą się zdolność do automatyzacji powtarzalnych procesów, tworzenia i testowania oprogramowania oraz prowadzenia otwartych zadań, takich jak badania.
Aby umożliwić te ogólne umiejętności, stworzyliśmy API, które pozwala Claude postrzegać interfejsy komputerowe i wchodzić z nimi w interakcje. Programiści mogą zintegrować ten interfejs API, aby umożliwić Claude tłumaczenie instrukcji (np. "użyj danych z mojego komputera i online, aby wypełnić ten formularz") na polecenia komputerowe (np. sprawdź arkusz kalkulacyjny; przesuń kursor, aby otworzyć przeglądarkę internetową; przejdź do odpowiednich stron internetowych; wypełnij formularz danymi z tych stron; i tak dalej). Na OSWorld, który ocenia zdolność modeli AI do korzystania z komputerów tak, jak robią to ludzie, Claude 3.5 Sonnet uzyskał wynik 14,9% w kategorii tylko zrzutów ekranu - znacznie lepszy niż następny najlepszy wynik systemu AI wynoszący 7,8%. Gdy Claude otrzymał więcej kroków do wykonania zadania, uzyskał wynik 22,0%.
Chociaż spodziewamy się, że zdolność ta ulegnie szybkiej poprawie w nadchodzących miesiącach, obecna zdolność Claude'a do korzystania z komputerów jest niedoskonała. Niektóre czynności, które ludzie wykonują bez wysiłku - przewijanie, przeciąganie, powiększanie - stanowią obecnie wyzwanie dla Claude'a i zachęcamy programistów do rozpoczęcia eksploracji od zadań niskiego ryzyka. Ponieważ korzystanie z komputera może stanowić nowy wektor dla bardziej znanych zagrożeń, takich jak spam, dezinformacja lub oszustwa, przyjmujemy proaktywne podejście do promowania jego bezpiecznego wdrażania. Opracowaliśmy nowe klasyfikatory, które mogą identyfikować, kiedy komputer jest używany i czy występują szkody. Mogą Państwo przeczytać więcej o procesie badawczym stojącym za tą nową umiejętnością, wraz z dalszą dyskusją na temat środków bezpieczeństwa, w naszym poście na temat rozwoju korzystania z komputera.
Patrząc w przyszłość
Nauka płynąca z pierwszych wdrożeń tej technologii, która wciąż znajduje się na najwcześniejszych etapach, pomoże nam lepiej zrozumieć zarówno potencjał, jak i konsekwencje coraz bardziej wydajnych systemów sztucznej inteligencji.
Cieszymy się, że mogą Państwo zapoznać się z naszymi nowymi modelami i publiczną wersją beta korzystania z komputerów - i zapraszamy do podzielenia się z nami swoimi opiniami. Wierzymy, że te zmiany otworzą nowe możliwości pracy z Claude i z niecierpliwością czekamy na to, co Państwo stworzą.
Anthropic ====
Opracowanie modelu użytkowania komputera
22 października 2024 r
7 minut czytania
Abstrakcyjna reprezentacja korzystania z komputera przez sztuczną inteligencję, z kursorem komputerowym klikającym na stylizowaną reprezentację sieci neuronowej
Claude może teraz korzystać z komputerów. Najnowsza wersja Claude 3.5 Sonnet może, po uruchomieniu przez odpowiednią konfigurację oprogramowania, wykonywać polecenia użytkownika, aby przesuwać kursor po ekranie komputera, klikać w odpowiednie miejsca i wprowadzać informacje za pomocą wirtualnej klawiatury, naśladując sposób, w jaki ludzie wchodzą w interakcję z własnym komputerem.
Uważamy, że ta umiejętność - która jest obecnie w publicznej wersji beta - stanowi znaczący przełom w postępie sztucznej inteligencji. Poniżej dzielimy się z Państwem kilkoma spostrzeżeniami z badań, które przyczyniły się do opracowania modeli korzystania z komputera - i uczynienia ich bezpieczniejszymi.
Dlaczego korzystanie z komputera?
Dlaczego ta nowa zdolność jest ważna? Ogromna ilość nowoczesnej pracy odbywa się za pośrednictwem komputerów. Umożliwienie sztucznej inteligencji bezpośredniej interakcji z oprogramowaniem komputerowym w taki sam sposób, w jaki robią to ludzie, odblokuje ogromny zakres zastosowań, które po prostu nie są możliwe dla obecnej generacji asystentów AI.
W ciągu ostatnich kilku lat osiągnięto wiele ważnych kamieni milowych w rozwoju potężnej sztucznej inteligencji - na przykład zdolność do wykonywania złożonego logicznego rozumowania oraz zdolność widzenia i rozumienia obrazów. Kolejną granicą jest wykorzystanie komputerów: Modele sztucznej inteligencji, które nie muszą wchodzić w interakcje za pomocą specjalnie dostosowanych narzędzi, ale zamiast tego są uprawnione do korzystania z zasadniczo dowolnego oprogramowania zgodnie z instrukcjami.
Proces badawczy
Nasza wcześniejsza praca nad wykorzystaniem narzędzi i multimodalnością zapewniła podstawy dla tych nowych umiejętności obsługi komputera. Obsługa komputera wymaga umiejętności widzenia i interpretowania obrazów - w tym przypadku obrazów ekranu komputera. Wymaga również rozumowania, w jaki sposób i kiedy wykonać określone operacje w odpowiedzi na to, co jest wyświetlane na ekranie. Łącząc te umiejętności, wyszkoliliśmy Claude'a do interpretowania tego, co dzieje się na ekranie, a następnie korzystania z dostępnych narzędzi programowych do wykonywania zadań.
Kiedy programista zleca Claude'owi korzystanie z oprogramowania komputerowego i daje mu niezbędny dostęp, Claude patrzy na zrzuty ekranu tego, co jest widoczne dla użytkownika, a następnie liczy, ile pikseli w pionie lub poziomie musi przesunąć kursor, aby kliknąć we właściwym miejscu. Szkolenie Claude'a w zakresie dokładnego liczenia pikseli miało kluczowe znaczenie. Bez tej umiejętności model ma trudności z wydawaniem poleceń myszy - podobnie jak modele często zmagają się z prostymi pytaniami, takimi jak "ile A w słowie 'banan'?".
Byliśmy zaskoczeni tym, jak szybko Claude uogólnił się po szkoleniu z obsługi komputera, które przeprowadziliśmy na zaledwie kilku prostych programach, takich jak kalkulator i edytor tekstu (ze względów bezpieczeństwa nie pozwoliliśmy modelowi na dostęp do Internetu podczas szkolenia). W połączeniu z innymi umiejętnościami Claude'a, szkolenie to dało mu niezwykłą zdolność do przekształcania pisemnej zachęty użytkownika w sekwencję logicznych kroków, a następnie podejmowania działań na komputerze. Zaobserwowaliśmy, że model dokonywał nawet autokorekty i ponawiał próby wykonania zadań, gdy napotykał przeszkody.
Chociaż kolejne postępy przyszły szybko po dokonaniu pierwszego przełomu, osiągnięcie tego celu wymagało wielu prób i błędów. Niektórzy z naszych badaczy zauważyli, że rozwój wykorzystania komputera był zbliżony do "wyidealizowanego" procesu badań nad sztuczną inteligencją, który wyobrażali sobie, gdy zaczynali pracę w tej dziedzinie: ciągłe iteracje i wielokrotne wizyty z powrotem na desce kreślarskiej, aż do osiągnięcia postępu.
Badania opłaciły się. Obecnie Claude jest najnowocześniejszym modelem, który wykorzystuje komputery w taki sam sposób, jak robi to człowiek - czyli patrząc na ekran i podejmując działania w odpowiedzi. W jednej z ocen stworzonych w celu przetestowania prób deweloperów, aby modele korzystały z komputerów, OSWorld, Claude uzyskuje obecnie 14,9%. Nie jest to wynik bliski ludzkim umiejętnościom (które zazwyczaj wynoszą 70-75%), ale jest znacznie wyższy niż 7,7% uzyskane przez następny najlepszy model AI w tej samej kategorii.
Bezpieczne korzystanie z komputera
Każdy postęp w dziedzinie sztucznej inteligencji niesie ze sobą nowe wyzwania w zakresie bezpieczeństwa. Korzystanie z komputera jest głównie sposobem na obniżenie bariery dla systemów sztucznej inteligencji stosujących swoje istniejące umiejętności poznawcze, a nie na zasadnicze zwiększenie tych umiejętności, więc nasze główne obawy związane z korzystaniem z komputera koncentrują się na obecnych szkodach, a nie na przyszłych. Potwierdziliśmy to, oceniając, czy korzystanie z komputerów zwiększa ryzyko zagrożeń granicznych, zgodnie z naszą polityką odpowiedzialnego skalowania. Stwierdziliśmy, że zaktualizowana wersja Claude 3.5 Sonnet, w tym nowa umiejętność korzystania z komputera, pozostaje na poziomie bezpieczeństwa SI 2, co oznacza, że nie wymaga wyższego standardu środków bezpieczeństwa i ochrony niż te, które obecnie stosujemy.
Gdy przyszłe modele będą wymagać zabezpieczeń na poziomie bezpieczeństwa AI 3 lub 4, ponieważ stwarzają katastrofalne ryzyko, korzystanie z komputera może je zaostrzyć. Oceniamy, że prawdopodobnie lepiej jest wprowadzić korzystanie z komputera teraz, gdy modele nadal wymagają tylko zabezpieczeń na poziomie bezpieczeństwa AI 2. Oznacza to, że możemy zacząć rozwiązywać wszelkie kwestie bezpieczeństwa, zanim stawka będzie zbyt wysoka, zamiast dodawać możliwości korzystania z komputera po raz pierwszy do modelu o znacznie poważniejszym ryzyku.
W tym duchu nasze zespoły ds. zaufania i bezpieczeństwa przeprowadziły szeroko zakrojoną analizę naszych nowych modeli użytkowania komputerów w celu zidentyfikowania potencjalnych luk w zabezpieczeniach. Jedną z obaw, które zidentyfikowali, jest "wstrzyknięcie monitu" - rodzaj cyberataku, w którym złośliwe instrukcje są przekazywane do modelu sztucznej inteligencji, powodując, że albo zastępuje on wcześniejsze instrukcje, albo wykonuje niezamierzone działania, które odbiegają od pierwotnych intencji użytkownika. Ponieważ Claude może interpretować zrzuty ekranu z komputerów podłączonych do Internetu, możliwe jest, że może być narażony na treści zawierające ataki typu prompt injection.
Osoby korzystające z komputerowej wersji Claude w naszej publicznej wersji beta powinny podjąć odpowiednie środki ostrożności, aby zminimalizować tego rodzaju ryzyko. Jako źródło informacji dla deweloperów, udostępniliśmy dalsze wskazówki w naszej referencyjnej implementacji.
Podobnie jak w przypadku każdej zdolności sztucznej inteligencji, istnieje również możliwość, że użytkownicy celowo nadużyją umiejętności komputerowych Claude. Nasze zespoły opracowały klasyfikatory i inne metody oznaczania i łagodzenia tego rodzaju nadużyć. Biorąc pod uwagę zbliżające się wybory w USA, jesteśmy bardzo czujni na próby nadużyć, które mogą być postrzegane jako podważające zaufanie publiczne do procesów wyborczych. Chociaż wykorzystanie komputerów nie jest wystarczająco zaawansowane lub zdolne do działania na skalę, która stwarzałaby zwiększone ryzyko w stosunku do istniejących możliwości, wdrożyliśmy środki monitorowania, kiedy Claude jest proszony o zaangażowanie się w działania związane z wyborami, a także systemy odciągania Claude'a od działań takich jak generowanie i publikowanie treści w mediach społecznościowych, rejestrowanie domen internetowych lub interakcja z rządowymi stronami internetowymi. Będziemy stale oceniać i udoskonalać te środki bezpieczeństwa, aby zrównoważyć możliwości Claude z odpowiedzialnym użytkowaniem podczas publicznej wersji beta.
Zgodnie z naszym standardowym podejściem do prywatności danych, domyślnie nie szkolimy naszych generatywnych modeli sztucznej inteligencji na danych przesłanych przez użytkowników, w tym na żadnych zrzutach ekranu, które otrzymuje Claude.
Przyszłość korzystania z komputera
Korzystanie z komputera to zupełnie inne podejście do rozwoju sztucznej inteligencji. Do tej pory programiści LLM dopasowywali narzędzia do modelu, tworząc niestandardowe środowiska, w których sztuczna inteligencja używała specjalnie zaprojektowanych narzędzi do wykonywania różnych zadań. Teraz możemy sprawić, że model będzie pasował do narzędzi - Claude może dopasować się do środowisk komputerowych, z których wszyscy korzystamy na co dzień. Naszym celem jest umożliwienie Claude'owi korzystania z istniejącego wcześniej oprogramowania komputerowego i używania go tak, jak robiłby to człowiek.
Jest jeszcze wiele do zrobienia. Mimo że jest to obecny stan techniki, korzystanie z komputera przez Claude'a pozostaje powolne i często podatne na błędy. Istnieje wiele czynności, które ludzie rutynowo wykonują na komputerach (przeciąganie, powiększanie itp.), a których Claude nie może jeszcze wykonać. "Flipbookowy" charakter widoku ekranu przez Claude'a - robienie zrzutów ekranu i składanie ich w całość, zamiast obserwowania bardziej ziarnistego strumienia wideo - oznacza, że może przegapić krótkotrwałe działania lub powiadomienia.
Nawet podczas nagrywania demonstracji korzystania z komputera na potrzeby dzisiejszej premiery napotkaliśmy kilka zabawnych błędów. W jednym z nich Claude przypadkowo kliknął, aby zatrzymać długotrwałe nagrywanie ekranu, co spowodowało utratę całego materiału. W innym, Claude nagle zrobił sobie przerwę od naszego demo kodowania i zaczął przeglądać zdjęcia Parku Narodowego Yellowstone.
Oczekujemy, że korzystanie z komputera szybko się poprawi, aby stać się szybszym, bardziej niezawodnym i bardziej przydatnym do zadań, które nasi użytkownicy chcą wykonać. Stanie się również znacznie łatwiejsze do wdrożenia dla osób z mniejszym doświadczeniem w tworzeniu oprogramowania. Na każdym etapie nasi badacze będą ściśle współpracować z naszymi zespołami ds. bezpieczeństwa, aby zapewnić, że nowym możliwościom Claude'a towarzyszą odpowiednie środki bezpieczeństwa.
Zachęcamy programistów, którzy wypróbują korzystanie z komputera w naszej publicznej wersji beta, do skontaktowania się z nami za pomocą tego formularza, aby nasi naukowcy mogli nadal ulepszać użyteczność i bezpieczeństwo tej nowej funkcji.
PALANTIR ====
11 / 07 / 2024
Partnerzy Anthropic i Palantir wprowadzają modele Claude AI do AWS dla wywiadu i operacji obronnych rządu USA
DENVER--(BUSINESS WIRE)-- Anthropic i Palantir Technologies Inc. (NYSE: PLTR) ogłosiły dziś partnerstwo z Amazon Web Services (AWS) w celu zapewnienia amerykańskim agencjom wywiadowczym i obronnym dostępu do rodziny modeli Claude 3 i 3.5 na AWS. Partnerstwo to pozwala na zintegrowany pakiet technologii w celu operacjonalizacji wykorzystania Claude w ramach platformy AI Palantir (AIP), przy jednoczesnym wykorzystaniu korzyści w zakresie bezpieczeństwa, zwinności, elastyczności i zrównoważonego rozwoju zapewnianych przez AWS.
Partnerstwo ułatwia odpowiedzialne stosowanie sztucznej inteligencji, umożliwiając korzystanie z Claude w produktach Palantir w celu wspierania operacji rządowych, takich jak szybkie przetwarzanie ogromnych ilości złożonych danych, podnoszenie poziomu wiedzy opartej na danych, skuteczniejsze identyfikowanie wzorców i trendów, usprawnianie przeglądu i przygotowywania dokumentów oraz pomaganie urzędnikom amerykańskim w podejmowaniu bardziej świadomych decyzji w sytuacjach wrażliwych na czas, przy jednoczesnym zachowaniu ich uprawnień decyzyjnych. Claude stał się dostępny w ramach Palantir AIP na AWS na początku tego miesiąca.
Dzięki AIP firmy Palantir klienci mogą teraz operacjonalizować Claude przy użyciu zintegrowanego pakietu technologii, ułatwionego przez Amazon SageMaker, akredytowaną, w pełni zarządzaną usługę i hostowaną w akredytowanym środowisku Impact Level 6 (IL6) firmy Palantir, wspieranym przez AWS. Palantir i AWS należą do ograniczonej liczby firm, które otrzymały akredytację IL6 Agencji Systemów Informacyjnych Obrony (DISA), wymagającą jednych z najbardziej rygorystycznych protokołów bezpieczeństwa.
"Nasze partnerstwo z Anthropic i AWS zapewnia amerykańskim społecznościom obronnym i wywiadowczym łańcuch narzędzi, których potrzebują, aby bezpiecznie wykorzystywać i wdrażać modele sztucznej inteligencji, zapewniając przewagę decyzyjną nowej generacji w ich najbardziej krytycznych misjach" - powiedział Shyam Sankar, dyrektor ds. technologii w Palantir. "Palantir jest dumny z tego, że jest pierwszym partnerem branżowym, który wprowadza modele Claude do środowisk niejawnych. Widzieliśmy już na własne oczy wpływ tych modeli z AIP w sektorze komercyjnym: na przykład jeden z wiodących amerykańskich ubezpieczycieli zautomatyzował znaczną część swojego procesu underwritingowego za pomocą 78 agentów AI zasilanych przez AIP i Claude, przekształcając proces, który kiedyś zajmował dwa tygodnie, w taki, który można było wykonać w ciągu trzech godzin. Teraz zapewniamy tę samą asymetryczną przewagę AI rządowi USA i jego sojusznikom"
"Jesteśmy dumni, że możemy być liderem we wprowadzaniu odpowiedzialnych rozwiązań AI do tajnych środowisk USA, zwiększając możliwości analityczne i wydajność operacyjną w kluczowych operacjach rządowych. Dostęp do Claude 3 i Claude 3.5 w ramach Palantir AIP na AWS wyposaży amerykańskie organizacje obronne i wywiadowcze w potężne narzędzia AI, które mogą szybko przetwarzać i analizować ogromne ilości złożonych danych. To znacznie poprawi analizę danych wywiadowczych i umożliwi urzędnikom podejmowanie decyzji, usprawni zadania wymagające dużej ilości zasobów i zwiększy wydajność operacyjną w różnych działach" - powiedziała Kate Earle Jensen, dyrektor ds. sprzedaży i partnerstw w Anthropic.
"Cieszymy się, że możemy współpracować z Anthropic i Palantir i oferować nowe możliwości generatywnej sztucznej inteligencji, które będą napędzać innowacje w sektorze publicznym. W AWS jesteśmy zaangażowani w dostarczanie klientom i partnerom z sektora publicznego najbardziej bezpiecznego, innowacyjnego i kompleksowego zestawu usług w chmurze" - powiedział Dave Levy, wiceprezes Worldwide Public Sector, AWS.
O Palantir Technologies Inc.
Fundamentalne oprogramowanie jutra. Dostarczane już dziś. Dodatkowe informacje znajdą Państwo na stronie www.palantir.com.
Stwierdzenia dotyczące przyszłości
Niniejsza informacja prasowa zawiera stwierdzenia dotyczące przyszłości w rozumieniu sekcji 27A ustawy o papierach wartościowych z 1933 r., z późniejszymi zmianami, oraz sekcji 21E ustawy o giełdzie papierów wartościowych z 1934 r., z późniejszymi zmianami. Stwierdzenia te mogą odnosić się między innymi do oczekiwań Palantir dotyczących kwoty i warunków umowy oraz oczekiwanych korzyści z naszych platform oprogramowania. Stwierdzenia dotyczące przyszłości z natury podlegają ryzyku i niepewności, z których niektórych nie można przewidzieć ani określić ilościowo. Stwierdzenia dotyczące przyszłości opierają się na informacjach dostępnych w momencie ich wygłaszania i były oparte na bieżących oczekiwaniach, a także przekonaniach i założeniach kierownictwa w tym czasie w odniesieniu do przyszłych wydarzeń. Stwierdzenia te są obarczone ryzykiem i niepewnością, z których wiele wiąże się z czynnikami lub okolicznościami pozostającymi poza naszą kontrolą. Te czynniki ryzyka i niepewności obejmują naszą zdolność do zaspokojenia unikalnych potrzeb naszych klientów; niepowodzenie naszych platform, aby zadowolić naszego klienta lub działać zgodnie z oczekiwaniami; częstotliwość lub dotkliwość wszelkich błędów oprogramowania i implementacji; niezawodność naszych platform; oraz zdolność naszego klienta do zmiany lub rozwiązania umowy. Dodatkowe informacje dotyczące tych i innych czynników ryzyka i niepewności są zawarte w dokumentach, które od czasu do czasu składamy w Komisji Papierów Wartościowych i Giełd. Z wyjątkiem przypadków wymaganych przez prawo, nie zobowiązujemy się do publicznego aktualizowania lub korygowania jakichkolwiek stwierdzeń dotyczących przyszłości, czy to w wyniku nowych informacji, przyszłych wydarzeń, czy z innych powodów.
Kontakt dla mediów
Morgan Gress
Źródło: Palantir Technologies Inc.