Большая Тёрка / Мысли / Foma-Akvinsky /
Foma‑Akvinsky, у меня к Вам несколько вопросов:
1. Что за словарь и что за модуль или библиотеку использовалия для приведения слов к леммам?
2. Применяется ли у Вас в системе дизамбигуация?
3. Какой обратно‑торноидиный словарь применён?
4. На каком языке программирования написана система?
Мало того, что ответы интересны мне, так собственно по адекватности ответов на эти вопросы можно будет понять состоятельность утверждений о роботе‑писателе.
А то одни сплошные бла‑бла‑бла пока...
Movein,
Какая жалость, Movein, что Вы так невнимательно читаете мои сообщения... Фраза: « ...вынужден был дать подписку о неразглашении» Вам ни о чём не говорит? Или Вы захотели в тот самый «фанерный ящик», который создала Ваша бурная фантазия? Наши так сказать «кураторы» Вам легко это устроят — можете даже не сомневаться...
Могу лишь поведать возможности Foma‑Akvinsky, т.е. схематично обрисовать те задачи, с которыми AI уже на данном этапе вполне успешно (уровень: 67%-72% ОСК) справляется.
Программе с простого голоса (с предварительной настройкой модуляций) либо посредством печатного текста (сейчас идёт настройка распознавания рукописного) выдаётся определённая история и предлагается решить 3 задачи:
1. Пересказать эту же историю в более кратком варианте, без искажения контекста повествования (смысловое сжатие информации).
2. Выделить основных героев повествования (как правило предлагается — 3–5 шт.) и дать им качественную характеристику по 5–10 признакам (распознавание смысловых модулей).
3. Создание альтернативных событий, при сохранении предложенных завязки и финала, либо альтернативного финала, при общем сохранении предложенных событий (информационно‑поточная интерполяция (экстраполяция)).
Программа ведь не просто забивается, а ещё и учится. Сама. Хоть и, естественно, с нашей помощью. На основе разработанного ядра. Мы нашли алгоритм привязки ФОРМЫ к ЗНАЧЕНИЮ! Кто умный — тот поймёт о чём это я. Но это о7ень‑о7чень упрощённое объяснение. Весь дьявол в деталях! О большем говорить не имею права.
...конечно modus tollendo ponens'ы и modus ponendo tollens'ы (обобщаю) приходилось стратифицировать по семантическим слоям...
Foma‑Akvinsky, всё ясно.
Подписка о не разглашении данная в присутствии не менее трёх пацанов с Первомайки перед пацанами с Юго‑западного, это действительно сурово.
Собственно, более никого описанное вами ПО не могло заинтересовать в принципе, но если всё же заинтересовали, то это и забавно и печально.
Забавно потому, что навешать лапши чиновникам/служивым, это ещё тот номер, а печально потому, что как только лапша будет снята, вас настигнет кара пострашнее тумбочки.
P.S. Вашим «смысловым сжатием» я занимался ещё 17 лет назад и успешно, равно как и созданием обучающихся алгоритмов, а алгоритмами анализа текста занимаюсь и по сей день с целью практического коммерческого применения и применяю их практически и с коммерческим эффектом, так что можете далее лапшицу навешивать посетителям Тёрочки, в подобных системах не понимающих.
P.P.S. Удачи в вашем самобытном PR‑е.