AI Safety Polska

Polska społeczność dążąca do zmniejszenia ryzyka związanego z rozwojem AI

Dlaczego warto pracować nad bezpieczeństwem sztucznej inteligencji? 

30 maja 2023 roku Center for AI Safety opublikowało następujące stanowisko:


"Przeciwdziałanie zagrożeniu wyginięcia spowodowanego przez Sztuczną Inteligencję powinno być globalnym priorytetem obok innych zagrożeń dla ludzkości, jak pandemie i wojna nuklearna."


Pod stanowiskiem podpisała się, między innymi, dwójka najczęściej cytowanych naukowców w dziedzinie sztucznej inteligencji... Czytaj dalej


Poszukujemy osób chętnych wspierać rozwój obszaru AI Safety w Polsce, ekspertów, naukowców, studentów. Skontaktuj się z nami.

Nadchodzące wydarzenia


Listę zagranicznych i międzynarodowych wydarzeń oraz szkoleń z obszaru AI Safety znajdziecie tutaj.

Nasza misja

Sztuczna inteligencja może wkrótce radykalnie zmienić nasze społeczeństwo, na lepsze lub gorsze

Eksperci oczekują znacznego postępu w dziedzinie AI w ciągu naszego życia, potencjalnie aż do punktu osiągnięcia inteligencji na poziomie ludzkim. Systemy cyfrowe o takich możliwościach zrewolucjonizowałyby każdy aspekt naszego społeczeństwa, od biznesu, przez politykę, po kulturę. Co niepokojące, maszyny te nie będą domyślnie korzystne, a interes publiczny jest często w konflikcie z zachętami wielu podmiotów rozwijających tę technologię.

Pracujemy nad tym, by sztuczna inteligencja była rozwijana z korzyścią dla przyszłości ludzkości

Pomimo dotychczasowych wysiłków w zakresie bezpieczeństwa nie jesteśmy w stanie w pełni wyjaśnić zachowań systemów AI, kontrolować ich wartości oraz zbudować niezawodnych zabezpieczeń przed niepożądanymi działaniami. Nasza społeczność ma na celu umożliwienie studentom i badaczom wnoszenie wkładu w dziedzinę bezpieczeństwa sztucznej inteligencji.

Zaangażuj się!

Zgłoś chęć uczestnictwa w grupie czytelniczej

Jeśli jesteś nowicjuszem/ką w tej dziedzinie i chcesz zagłębić się w obszar AI Safety, rozważ dołączenie do naszych 8-tygodniowych grup czytelniczych i dyskusyjnych. Plan spotkań opieramy o programy Alignment / Governance od BlueDot Impact, z których, oprócz podstaw danej dziedziny, poznasz istniejące i obiecujące kierunki badań oraz obszary działań.

Napisz do nas ✉️ info@aisafety.org.pl 

Badania

Jesteś studentem/ką bądź naukowcem/czynią zainteresowanym/ą prowadzeniem  badań w dziedzinie AI Safety? Skontaktuj się z nami, a pomożemy Ci znaleźć mentora, zespół, a nawet źródło finansowania.

Napisz do nas ✉️ info@aisafety.org.pl 

Kariera w AI Safety

Jeśli jesteś już osobą gotową na pracę w obszarze AI Safety, sprawdź aktualne ogłoszenia pracy w organizacjach, w których możesz rozwijać technologie lub prowadzić badania z nim związane.

Job boardy z pracą w AI Safety: 👉🏻 80000hours.org 👉🏻aisafety.com/jobs

Weź udział w hackathonach organizowanych przez Apart Research

48 godzin intensywnych, zabawnych i opartych na współpracy badań nad najciekawszymi kwestiami z zakresu AI i AI Safety!

👩🏻‍💻Apart Sprints