Czy istnieje sposób klasyfikacji określonego zdania/akapitu jako zabawny. Istnieje bardzo niewiele wskazówek, gdzie należy pójść dalej w tej sprawie.NLP klasyfikuj zdania/akapity jako zabawne
Odpowiedz
Są badania na ten temat, nazywa się Computational Humor. Jest to obszar interdyscyplinarny, który wykorzystuje elementy z lingwistyki komputerowej, psycholingwistyki, sztucznej inteligencji, uczenia maszynowego itp. Próbują oni dowiedzieć się, co sprawia, że historie lub dowcipy są zabawne (np. Nieoczekiwane połączenie lub zaskakujący temat tabu; itp.) i zastosować go do tekstu (aby wygenerować zabawną historię lub zmierzyć "funniness" tekstu).
Istnieje books i artykuły na ten temat (np. Przez Graeme Ritchie).
Jedynym sposobem na wyciągnięcie tego jest uzyskanie kilku tysięcy osób (małpy nie będą, przepraszam), aby przejrzały tysiące zabawnych zdań/opowiadań, oceń je, a następnie zbuduj jakiś system ekspercki/sieć neuronowa. Biorąc pod uwagę zakres problemu i jego subiektywność (rzecz zabawna dla jednej osoby może nie być zabawna - nawet obraźliwa - dla innej osoby), powiedziałbym, że to niemożliwe.
Tak, powinieneś użyć Korporacji Treningowej do zbudowania modelu predykcyjnego zdolnego do wykrywania zabawnych zdań. Czasami jest to znane w literaturze jako "Analiza nastrojów". Zapoznaj się z tym artykułem na temat Sentiment Analysis with LingPipe.
Jeśli możesz używać Javy, możesz użyć ich biblioteki (zobacz license matrix). Okazało się, że jest to bardzo przydatne, a nie dokładnie w tym samym kontekście, co ty.
Możesz użyć tej samej techniki, co filtry antyspamowe. Zamiast spamu/nie-spamu klasyfikujesz na śmiesznym/nie-zabawnym. Zajrzyj do naiwnych klasyfikatorów bayesowskich po więcej informacji.
Spróbuj też Computational Humor @ Google Scholar jeśli poważnie o uzyskanie w tej dziedzinie. Analiza nastrojów również została wymieniona, patrz wikipedia na ten temat.
Oczywiście, to wszystko zależy od tego, co się zakres i cele są ...
- 1. Klasyfikuj ściany z VNFaceObservation
- 2. Programowo klasyfikuj klasę do xsd
- 3. Framework NLP dla .NET
- 4. NLP tekstów prawnych?
- 5. Stanford nlp tokenizer
- 6. Czy WordNet ma "poziomy"? (NLP)
- 7. Błąd podczas korzystania z klasyfikuj w caffe
- 8. Generowanie zabawne migający wzór dla 1D układ
- 9. Negacja Hexa w PHP, zabawne zachowanie
- 10. Klasyfikuj dane za pomocą Apache Mahout
- 11. Stanley Core NLP LexicalizedParser Model
- 12. Stanford core nlp java output
- 13. Generowanie pytań z tekstu (NLP)
- 14. Stanford Core NLP - zrozumienie rozdzielczości rozdzielczej
- 15. Strategie rozpoznawania rzeczowników właściwych w NLP
- 16. Wykrywanie języka za pomocą Stanford NLP
- 17. Jak usunąć stopwords używając stanford nlp
- 18. Algorytm NLP do "wypełniania" wyszukiwanych terminów
- 19. Szkolenie n-gram NER ze Stanford NLP
- 20. NLP: Zdanie jakościowe "pozytywne" kontra "negatywne"
- 21. NLP/Porównanie tekstów maszynowego uczenia się
- 22. Klasyfikuj procesy węzłowe razem z MPI i FORTRAN
- 23. Scikit - naucz się trenować model liniowy log NLP dla NER
- 24. Zależność Mavena: pobieranie nie pobiera plików modelu Stanford NLP
- 25. W przetwarzaniu języka naturalnego (NLP), jak skutecznie zmniejszyć wymiary?
- 26. Jakie funkcje wykorzystują praktykujący NLP do wybierania angielskich nazw?
- 27. Jakie biblioteki oferują podstawowe lub zaawansowane metody NLP?
- 28. Wyodrębnij niekonsekwentnie sformatowaną datę z ciągu znaków (analiza daty, NLP)
- 29. Czy oprogramowanie rozwijające się w dużym zespole może być interesujące i zabawne?
- 30. Dlaczego cytaty zamieniają się w zabawne postacie, gdy są przesyłane w formularzu HTML?
To nie jest szczególnie dobra dla humoru, ponieważ podejście naiwne Bayesa zakłada niezależność między poszczególnymi słowami („efekty”). W humorze, który jest niewiarygodnie słabym założeniem, ponieważ konstrukcje wyższego poziomu sprawiają, że humor jest dobry, a nie tylko pojedyncze zdarzenia. –