LinkedIn opracował nowy system AI, wykrywający treści, które mogą stanowić naruszenie zasad platformy.
Nowe narzędzie ma na celu optymalizację pracy moderatorów, wykrywających wszelkie naruszenia. Twórcy serwisu twierdzą, że zmiana ta znaczenie poprawi bezpieczeństwo użytkowników. Połączenie sztucznej inteligencji i pracowników pozwoli na wyeliminowanie błędów robotów, a jednocześnie znacznie uprości i przyspieszy zadania pracowników.
Jak to działa? Początkowo system filtruje wszystkie treści, które mogą stanowić naruszenie, a następnie kategoryzuje je według priorytetu. Jako pierwsze będą brane pod uwagę wszelkie elementy, które najprawdopodobniej łamią zasady serwisu. Następnie po sprawdzeniu ich przez moderatorów zostaną usunięte. W ten sposób wszelkie zagrażające treści znikną z platformy tak szybko, jak to możliwe.



