23 września 2019 |
Igor Boguslavsky (Institute for Information Transmission Problems, Russian Academy of Sciences / Universidad Politécnica de Madrid) |
I will present a semantic analyzer SemETAP, which is a module of a linguistic processor ETAP designed to perform analysis and generation of NL texts. We proceed from the assumption that the depth of understanding is determined by the number and quality of inferences we can draw from the text. Extensive use of background knowledge and inferences permits to extract implicit information. |
Salient features of SemETAP include: |
— knowledge base contains both linguistic and background knowledge; |
— inference types include strict entailments and plausible expectations; |
— words and concepts of the ontology may be supplied with explicit decompositions for inference purposes; |
— two levels of semantic structure are distinguished. Basic semantic structure (BSemS) interprets the text in terms of ontological elements. Enhanced semantic structure (EnSemS) extends BSemS by means of a series of inferences; |
— a new logical formalism Etalog is developed in which all inference rules are written. |
7 października 2019 |
Tomasz Stanisz (Instytut Fizyki Jądrowej PAN) |
Sieci złożone, które znalazły zastosowanie w ilościowym opisie wielu różnych zjawisk, okazały się atrakcyjne także w badaniach nad językiem naturalnym. Formalizm sieciowy pozwala badać język z różnych punktów widzenia – sieć złożona może reprezentować na przykład wzajemne położenie słów w tekście, pokrewieństwo znaczeń, czy relacje gramatyczne. Jednym z rodzajów sieci lingwistycznych są sieci sąsiedztwa słów, opisujące współwystępowanie słów w tekstach. Pomimo prostoty konstrukcji, sieci sąsiedztwa słów mają szereg właściwości pozwalających na ich praktyczne wykorzystanie. Struktura takich sieci, wyrażona odpowiednio zdefiniowanymi wielkościami, odzwierciedla pewne cechy języka; zastosowanie metod uczenia maszynowego do zbiorów tych wielkości może posłużyć między innymi do zidentyfikowania autora tekstu. |
21 października 2019 |
Agnieszka Patejuk (Instytut Podstaw Informatyki PAN / Uniwersytet Oksfordzki), Adam Przepiórkowski (Instytut Podstaw Informatyki PAN / Uniwersytet Warszawski) |
Universal Dependencies (UD; https://universaldependencies.org/) to dominujący schemat znakowania składniowego wykorzystywany przez liczne parsery dla wielu języków. Schemat ten nie do końca dobrze radzi sobie z reprezentacją koordynacji, tj. konstrukcji współrzędnie złożonych. W niniejszym referacie zaproponujemy reprezentacje dwóch aspektów koordynacji, które nie miały wcześniej dobrych reprezentacji nie tylko w UD, ale także w teoriach zależnościowych: koordynacji różnych funkcji gramatycznych oraz koordynacji zagnieżdżonej. |
4 listopada 2019 |
Marcin Będkowski (Uniwersytet Warszawski / Instytut Badań Edukacyjnych), Wojciech Stęchły, Leopold Będkowski, Joanna Rabiega-Wiśniewska (Instytut Badań Edukacyjnych), Michał Marcińczuk (Politechnika Wrocławska), Grzegorz Wojdyga, Łukasz Kobyliński (Instytut Podstaw Informatyki PAN) |
|
Analiza istniejących rozwiązań opisujących grupowanie kwalifikacji |
W referacie omówiono problem porównywania dokumentów zawartych w Zintegrowanym Rejestrze Kwalifikacji pod względem ich podobieństwa treściowego. |
W pierwszej części scharakteryzujemy tło zagadnienia, w tym strukturę opisu efektów uczenia się w kwalifikacjach oraz zdań opisujących efekty uczenia się. Zgodnie z definicją zawartą w ustawie o Zintegrowanym Systemie Kwalifikacji efekt uczenia się to wiedza, umiejętności oraz kompetencje społeczne nabyte w procesie uczenia się, a kwalifikacja to zestaw efektów uczenia się, których osiągnięcie potwierdza się odpowiednim dokumentem (np. dyplomem, certyfikatem). Zdania, których referentami są efekty uczenia się, mają ustabilizowaną budowę i składają się zasadniczo z tzw. czasownika operacyjnego (opisującego czynność stanowiącą efekt uczenia się) oraz frazy nominalnej stanowiącej jego dopełnienie (nazywającej obiekt będący przedmiotem tej czynności, w skrócie: obiekt umiejętności). Przykładowo: „Określa wady wzroku i sposoby ich korekty na podstawie pomiaru refrakcji oczu” czy „Uczeń odczytuje rysunki techniczne.”. |
W drugiej części zarysujemy podejście pozwalające na określenie stopnia podobieństwa między kwalifikacjami oraz ich grupowanie, wraz z jego założeniami i stojącymi za nimi intuicjami. Określimy przyjęte rozumienie podobieństwa treściowego, mianowicie zarysujemy podejście określania podobieństwa tekstów w wariancie umożliwiającym automatyczne przetwarzanie tekstu z wykorzystaniem narzędzi komputerowych. Przedstawimy prosty model reprezentacji wypowiedzi, tzw. bag of words, w dwóch wersjach. |
Pierwsza z nich zakłada pełną atomizację efektów uczenia się (w tym fraz nominalnych, obiektów umiejętności) i przedstawienie ich jako zbiorów pojedynczych zlematyzowanych rzeczowników będących reprezentacją obiektów umiejętności. Druga opiera się na n-gramach z uwzględnieniem miary TFIDF (tj. ważenie częstością termów – odwrotna częstość w dokumentach), pozwalające na wydobycie z tekstów słów i fraz kluczowych. |
Pierwsze podejście można określić mianem „rozrzutnego”, natomiast drugie – „oszczędnego”. Pierwsze pozwala bowiem dla każdej kwalifikacji przedstawić wiele kwalifikacji podobnych (choć stopień podobieństwa bywa niski). Natomiast drugie dopuszcza sytuację, w której dla danej kwalifikacji nie znajdzie się żadna podobna. |
W części trzeciej opiszemy przykładowe grupowania i listy rankingowe bazujące na obu podejściach, oparte na skalowaniu wielowymiarowym i algorytmie k-średnich oraz grupowaniu hierarchicznym. Przedstawimy także studium przypadku, które posłuży do zilustrowania zalet oraz niedostatków obu podejść. |
W czwartej części przedstawimy wnioski dotyczące grupowania kwalifikacji, ale także ogólne wnioski związane z określaniem słów kluczy. W szczególności przedstawimy wnioski dotyczące stosowania wskazanych metod do porównywania tekstów zróżnicowanej długości, a także częściowo pokrywających się (zawierających wspólne fragmenty). |
Referat został przygotowany we współpracy z autorami ekspertyzy dotyczącej automatycznej analizy i porównywania kwalifikacji w celu ich grupowania przygotowanej w ramach projektu „Prowadzenie i rozwój Zintegrowanego Rejestru Kwalifikacji”, POWR.02.11.00-00-0001/17. |
18 listopada 2019 |
Alexander Rosen (Uniwersytet Karola w Pradze) |
|
Wielojęzyczny korpus równoległy InterCorp, będący częścią Czeskiego Korpusu Narodowego, od 2008 roku jest dostępny online; stale powiększa się, osiągając obecnie wielkość 1,7 miliarda słów w 40 językach. Znaczną część InterCorpu stanowią teksty literackie, które uzupełniają teksty prawne, publicystyczne, wystąpienia parlamentarne, napisy filmowe i Biblia. Teksty wiązane są na poziomie zdań i – w większości języków – otagowane oraz lematyzowane. Podczas wykładu skoncentruję się na kwestii adnotacji morfosyntaktycznych, wykorzystując specyficzne dla języków zestawy tagsetów i reguły tokenizacji oraz zbadam różne rozwiązania, w tym oparte na wytycznych, danych i narzędziach opracowanych w ramach projektu Universal Dependencies. |
21 listopada 2019 |
Alexander Rosen (Uniwersytet Karola w Pradze) |
Teksty tworzone przez osoby uczące się języka (rodzimego lub obcego) zawierają różnego rodzaju zjawiska niekanoniczne, co komplikuje anotację językową i jednocześnie wymaga wyraźnego oznaczenia odchyleń od normy. Chociaż istnieje wiele korpusów uczniowskich języka angielskiego, a ostatnio również inne języki nadrabiają w tym swoje zaległości, do tej pory nie pojawiło się powszechnie przyjęte podejście do projektowania taksonomii błędów i schematu anotacji. W przypadku CzeSL, korpusu czeskiego jako drugiego języka, zaprojektowano i przetestowano kilka takich podejść, które później rozszerzono również na teksty przygotowane przez czeskie dzieci w wieku szkolnym. Podczas wykładu pokażę wady i zalety tych podejść, szczególnie w odniesieniu do czeskiego jako języka o wysokiej fleksyjności i swobodnym szyku wyrazów w zdaniu. |
12 grudnia 2019 |
Aleksandra Tomaszewska (Instytut Lingwistyki Stosowanej UW) |
|
W trakcie prezentacji przedstawiony zostanie projekt „Brukselizmy – mechanizmy powstawania, funkcje, ewolucja i asymilacja w polszczyźnie” (Diamentowy Grant MNiSW), którego celem jest analiza i kategoryzacja zapożyczeń unijnych – efektów kontaktów językowych w Unii Europejskiej. Podczas pierwszej części seminarium autorka omówi tło teoretyczne zjawiska, założenia projektu badawczego oraz zaprezentuje skompilowany roboczy korpus gatunkowy polszczyzny unijnej złożony z trzech podkorpusów – transkrypcji wywiadów z europosłami, prawa unijnego (rozporządzeń i dyrektyw) oraz komunikatów prasowych instytucji Unii Europejskiej. W dalszej części wystąpienia zaprezentowane zostaną metody i narzędzia wykorzystywane w badaniu, w tym sposoby prowadzenia analiz na zgromadzonym materiale badawczym. Na konkretnych przykładach zasygnalizowana zostanie również potrzeba automatyzacji badań nad najnowszymi zapożyczeniami na gruncie polskim. |
13 stycznia 2020 |
Ryszard Tuora, Łukasz Kobyliński (Instytut Podstaw Informatyki PAN) |
|
W naszym projekcie staramy się zapełnić lukę pomiędzy wypracowanymi przez lata, zaawansowanymi narzędziami dedykowanymi do rozmaitych zadań w ramach przetwarzania języka polskiego a użytkownikami szukającymi i oczekującymi łatwego dostępu do tych technologii. spaCy jest open-source'owym frameworkiem do NLP znajdującym się w ścisłej czołówce popularności, ale mimo to nie posiada obecnie oficjalnego wsparcia dla języka polskiego. W referacie opowiemy o przygotowanym przez nas modelu do spaCy, który umożliwia segmentację, lematyzację, analizę morfosyntaktyczną, parsowanie zależnościowe i wykrywanie jednostek nazewniczych. Przedstawimy zintegrowane narzędzia, wyniki ewaluacyjne, przykładowe zastosowania oraz możliwe ścieżki rozwoju istniejącego modelu. |
27 stycznia 2020 |
Alina Wróblewska, Katarzyna Krasnowska-Kieraś (Instytut Podstaw Informatyki PAN) |
W referacie zostaną przedstawione wyniki badań nad kodowaniem informacji lingwistycznych w wektorowych reprezentacjach zdań (ang. sentence embeddings). W badaniach zastosowano metody oparte na uniwersalnych zadaniach próbkowania (ang. probing tasks) oraz na bardziej zaawansowanych zadaniach NLP (ang. downstream tasks). Wyniki eksperymentów na językach angielskim i polskim pokazały, że różne typy embeddingów zdań w różnym stopniu kodują informacje lingwistyczne. Wyniki badań zostały opublikowane w artykule Empirical Linguistic Study of Sentence Embeddings w materiałach konferencji ACL 2019. |
24 lutego 2020 |
Piotr Niewiński (Samsung R&D Polska), Aleksander Wawer, Grzegorz Wojdyga (Instytut Podstaw Informatyki PAN) |
Aleksander Wawer, Grzegorz Wojdyga (Instytut Podstaw Informatyki PAN), Justyna Sarzyńska-Wawer (Instytut Psychologii PAN) |
Fact Checking or Psycholinguistics: How to Distinguish Fake and True Claims? |
Piotr Niewiński, Maria Pszona, Maria Janicka (Samsung R&D Polska) |
W referacie zostaną przedstawione prace nad konkursem FEVER (Fact Extraction and Verification). "Fake-newsy" są stały się groźnym fenomenem współczesnego obiegu informacyjnego. Istnieje wiele podejść do problemu rozpoznawania fałszywych wiadomości – w konkursie FEVER, mając pewien tekst, zadaniem jest znalezienie konkretnych dowodów z pewnych źródeł celem weryfikacji. W trakcie prezentacji pokażemy najciekawsze pomysły zgłoszone przez uczestników poprzednich edycji, omówimy nasz artykuł porównujący podejścia weryfikacji faktów z analizą psycholingwistyczną, a także przedstawimy zwycięski system do oszukania systemów weryfikacji faktów. |
9 marca 2020 |
Piotr Przybyła (Instytut Podstaw Informatyki PAN) |
W ramach wystąpienia przedstawię wyniki prac nad automatycznym wykrywaniem dokumentów o niskiej wiarygodności, takich jak zmyślone wiadomości (ang. 'fake news'), na podstawie ich własności stylistycznych. Opiszę zgromadzony korpus 103.219 dokumentów z 223 źródeł i wyjaśnię dlaczego zastosowanie zwykłych klasyfikatorów tekstu nie przynosi zadowalających rezultatów. Przedstawię metody opracowane specjalnie dla tego zadania na bazie sieci neuronowych i cech stylometrycznych oraz osiągane przez nie wyniki. Przekonamy się także, czy opracowane klasyfikatory rzeczywiście uwzględniają słownictwo charakterystyczne dla zmyślonych wiadomości. Wyniki badań zostały opublikowane w pracy Capturing the Style of Fake News na konferencji AAAI 2020. |