AI Safety Polska
Polska społeczność dążąca do zmniejszenia ryzyka związanego z rozwojem AI
Dlaczego warto pracować nad bezpieczeństwem sztucznej inteligencji?
30 maja 2023 roku Center for AI Safety opublikowało następujące stanowisko:
"Przeciwdziałanie zagrożeniu wyginięcia spowodowanego przez Sztuczną Inteligencję powinno być globalnym priorytetem obok innych zagrożeń dla ludzkości, jak pandemie i wojna nuklearna."
Pod stanowiskiem podpisała się, między innymi, dwójka najczęściej cytowanych naukowców w dziedzinie sztucznej inteligencji... Czytaj dalej
Poszukujemy osób chętnych wspierać rozwój obszaru AI Safety w Polsce, ekspertów, naukowców, studentów. Skontaktuj się z nami.
Nadchodzące wydarzenia
"Representation engineering"
17 grudnia 2024 o 17:00
Listę zagranicznych i międzynarodowych wydarzeń oraz szkoleń z obszaru AI Safety znajdziecie tutaj.
Nasza misja
Sztuczna inteligencja może wkrótce radykalnie zmienić nasze społeczeństwo, na lepsze lub gorsze
Eksperci oczekują znacznego postępu w dziedzinie AI w ciągu naszego życia, potencjalnie aż do punktu osiągnięcia inteligencji na poziomie ludzkim. Systemy cyfrowe o takich możliwościach zrewolucjonizowałyby każdy aspekt naszego społeczeństwa, od biznesu, przez politykę, po kulturę. Co niepokojące, maszyny te nie będą domyślnie korzystne, a interes publiczny jest często w konflikcie z zachętami wielu podmiotów rozwijających tę technologię.
Pracujemy nad tym, by sztuczna inteligencja była rozwijana z korzyścią dla przyszłości ludzkości
Pomimo dotychczasowych wysiłków w zakresie bezpieczeństwa nie jesteśmy w stanie w pełni wyjaśnić zachowań systemów AI, kontrolować ich wartości oraz zbudować niezawodnych zabezpieczeń przed niepożądanymi działaniami. Nasza społeczność ma na celu umożliwienie studentom i badaczom wnoszenie wkładu w dziedzinę bezpieczeństwa sztucznej inteligencji.
Zaangażuj się!
Zgłoś chęć uczestnictwa w grupie czytelniczej
Jeśli jesteś nowicjuszem/ką w tej dziedzinie i chcesz zagłębić się w obszar AI Safety, rozważ dołączenie do naszych 8-tygodniowych grup czytelniczych i dyskusyjnych. Plan spotkań opieramy o programy Alignment / Governance od BlueDot Impact, z których, oprócz podstaw danej dziedziny, poznasz istniejące i obiecujące kierunki badań oraz obszary działań.
Napisz do nas ✉️ info@aisafety.org.plBadania
Jesteś studentem/ką bądź naukowcem/czynią zainteresowanym/ą prowadzeniem badań w dziedzinie AI Safety? Skontaktuj się z nami, a pomożemy Ci znaleźć mentora, zespół, a nawet źródło finansowania.
Napisz do nas ✉️ info@aisafety.org.plKariera w AI Safety
Jeśli jesteś już osobą gotową na pracę w obszarze AI Safety, sprawdź aktualne ogłoszenia pracy w organizacjach, w których możesz rozwijać technologie lub prowadzić badania z nim związane.
Job boardy z pracą w AI Safety: 👉🏻 80000hours.org 👉🏻aisafety.com/jobsWeź udział w hackathonach organizowanych przez Apart Research
48 godzin intensywnych, zabawnych i opartych na współpracy badań nad najciekawszymi kwestiami z zakresu AI i AI Safety!
👩🏻💻Apart Sprints