Współzałożyciel Anthropic wspomniał o zdecentralizowanym szkoleniu AI, twierdząc, że jego tempo wzrostu znacznie przewyższa modele scentralizowane.
Foresight News donosi, że współzałożyciel Anthropic oraz były dyrektor ds. polityki w OpenAI, Jack Clark, w swoim cotygodniowym newsletterze AI Import AI podkreślił znaczenie zdecentralizowanego treningu. Zaznaczył, że zdecentralizowany trening umożliwia rozproszone uczenie się na wielu węzłach, co zwiększa prywatność danych oraz odporność systemu. Powołał się na raport badawczy Epoch AI, który analizował ponad 100 powiązanych publikacji naukowych i wskazał, że skala obliczeniowa zdecentralizowanego treningu rośnie w tempie 20-krotnie rocznie (znacznie szybciej niż 5-krotny roczny wzrost w przypadku czołowego scentralizowanego treningu). Obecnie zdecentralizowany trening jest nadal około 1000 razy mniejszy niż czołowy scentralizowany, ale jest technicznie wykonalny i może umożliwić szerszy, zbiorowy rozwój potężniejszych modeli.
Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
Może Ci się również spodobać
Analityk Bloomberg kwestionuje obawy banków dotyczące rentowności stablecoinów
