CrowdStrike został członkiem-założycielem amerykańskiego konsorcjum na rzecz bezpieczeństwa sztucznej inteligencji, stworzonego przez National Institute of Standards and Technology. W ten sposób firma podkreśla swoje zaangażowanie w rozwój
i promocję odpowiedzialnej sztucznej inteligencji.
Amerykański Instytut Bezpieczeństwa AI (ang. Artificial Intelligence Safety Institute Consortium, AISIC) zrzesza około 200 organizacji, których zadaniem jest opracowywanie opartych na nauce i popartych empirycznie wytycznych oraz standardów dotyczących polityki w zakresie sztucznej inteligencji. W ten sposób kładzie podwaliny pod bezpieczeństwo sztucznej inteligencji na całym świecie.
AISIC będzie działać jako platforma współpracy, w ramach której zarówno interesariusze z sektora publicznego, jak i prywatnego będą pomagać w opracowywaniu standardów oraz technik związanych z szerszym wdrażaniem i rozwojem godnej zaufania sztucznej inteligencji.
CrowdStrike w rozwoju AI
CrowdStrike pozostaje liderem w dziedzinie cyberbezpieczeństwa opartego na sztucznej inteligencji, pionierem przełomowych zastosowań AI w celu usprawnienia i przyspieszenia krytycznych przepływów pracy w zakresie bezpieczeństwa. W ten sposób dąży do skutecznego zapobiegania naruszeniom, oszczędności czasu i minimalizowaniu kosztów swoich klientów.
Rozwiązania, oferowane przez producenta, są dostarczane za pośrednictwem natywnej dla sztucznej inteligencji platformy CrowdStrike Falcon® XDR i obejmują Charlotte AI, specjalnie zbudowany silnik zasilający portfolio generatywnych możliwości AI firmy na całej platformie.
Wszechstronna wiedza ekspertów CrowdStrike w zakresie sztucznej inteligencji pomoże AISIC opracować sprawdzone, skalowalne i interoperacyjne metodologie w celu rozwoju i promowania odpowiedzialnego korzystania z systemów sztucznej inteligencji.
Chociaż podmioty stanowiące zagrożenie będą nadal wykorzystywać sztuczną inteligencję do złych celów, ważne jest, aby dostrzec znaczące korzyści, jakie sztuczna inteligencja przynosi w dziedzinie cyberbezpieczeństwa. Narzędzia te osiągają lepsze wyniki niż starsze technologie, które nie wykorzystują AI. Jednak sztuczna inteligencja, która nie jest zaprojektowana z myślą o prywatności, może stwarzać ryzyko dla przedsiębiorstw. Nadrzędnym celem jest więc promowanie rozwoju i odpowiedzialnego korzystania z godnych zaufania aplikacji AI, aby zapewnić prywatność i ochronę danych. – wyjaśniali przedstawiciele firmy Crowdstrike w ostatnim zeznaniu przed Komisją Sprawiedliwości Izby Reprezentantów USA.
Jako wiodący amerykański partner technologiczny w zakresie cyberbezpieczeństwa rządu federalnego, CrowdStrike na nowo zdefiniował nowoczesne zabezpieczenia. Platforma Falcon wyznaczyła standardy w branży w zakresie tego, jak sztuczna inteligencja może zapewnić szybkość i skalę potrzebną do wykrywania zagrożeń i powstrzymywania naruszeń – powiedział Drew Bagley, wiceprezes i doradca ds. prywatności i polityki cybernetycznej w CrowdStrike. Ostatecznie, sztuczna inteligencja jest czynnikiem umożliwiającym cyberbezpieczeństwo i może zapewnić lepszą ochronę zasobów poprzez szybkie wykrywanie zagrożeń i skrócenie czasu reakcji. Jednak wraz z każdą przełomową technologią pojawiają się nowe zagrożenia, które organizacje muszą przewidzieć. Jako członek-założyciel AISIC, zamierzamy pomagać organizacjom i agencjom w stosowaniu technologii „privacy-by-design” i odpowiedzialnej sztucznej inteligencji, by w ten sposób zapewnić bardziej kompleksowy wgląd w ich sieci, a w konsekwencji lepszą ochronę danych przed naruszeniami.
Chcesz poznać lepiej rozwiązania oferowane przez firmę CrowdStrike?
Skontaktuj się z Michałem Dębowskim – Product Managerem CrowdStrike’a.
michal.debowski@exclusive-networks.pl