• Ostatnia modyfikacja artykułu:3 lata temu

Można już stworzyć algorytmy, które piszą teksty i wykorzystują przy tym uczenie maszynowe. Teksty są pisane tak, jakby autorem był człowiek, ale “sztuczni autorzy” mają jedną dużą wadę. Brakuje im zdrowego rozsądku.

Maszyny napędzane sztuczną inteligencją mogą generować tekst, który jest poprawny gramatycznie. I bardzo podobny do wersji opracowanych przez człowieka.

Zespół informatyków z University of Southern California (USC), University of Washington i Allen Institute for Artificial Intelligence, opracował nowy test, który sprawdza umiejętności rozumowania werbalnego w systemach uczenia maszynowego. Modele przetwarzania języka naturalnego miały listę prostych rzeczowników i czasowników, a ich zdaniem było połączyć je ze sobą w taki sposób, by stworzyć opis konkretnego scenariusza.

Na przykład słowa “pies”, “frisbee”, “rzut”, “złap” skłoniły jeden model do wygenerowania zdania: “Dwa psy rzucają w siebie frisbee”. Chociaż tekst jest spójny i poprawny gramatycznie, człowiek nie wymyśliły takiego zdania. Pomysł psów grających we frisbee nie jest może nad wyraz dziwny, ale zdecydowanie bardziej prawdopodobne jest, że w zdaniu napisanym przez człowieka jednym z uczestników zabawy byłby… no właśnie – człowiek.

Jak podają specjaliści, teksty generowane przez AI są poprawne gramatycznie, ale problemem jest ich niska wiarygodność. Dla przykładu, AI napisała, że “koszt na śmieci jest na stole”, mimo że mogła wybrać “pod stołem”. Zdrowy rozsądek podpowiada, że dobry wybór to “pod stołem”, ale sztuczna inteligencja go nie posiada. Zdecydowała więc, że wybierze losowo. I wybrała źle. Tego typu błędy są więc popełnianie przez maszyny i nie bardzo można z tym coś zrobić.

Eksperci przeprowadzili zresztą duży test, który sprawdzał możliwości AI. Miał on zbiór danych pozwalający na stworzenie 35 141 scenariuszy opisowych, przy użyciu 77 449 zdań. Przetestowali osiem różnych modeli językowych i najlepiej poradził sobie KG-BART, opracowany przez naukowców z University of Chicago. Uzyskał on współczynnik dokładności na poziomie 32,7 proc. Dla porównania, człowiek miał tutaj wynik 63,5 proc., a dodajmy, że testów nie wykonywał mistrz słowa pisanego, lecz przeciętny użytkownik.

Wnioski końcowe są takie, że AI może obecnie napisać tekst, który będzie przekonujący dla wielu ludzi. Ale będzie to w zasadzie naśladowanie tego, co dane algorytmy były w stanie już zobaczyć w fazie szkolenia. Innymi słowy, nie ma co czekać na autorskie i oryginalne powieści czy artykuły autorstwa AI.

Źródło: The Register.com

Oceń ten post