Получается, что сетки, обученные на примерах из реального мира, на том, как поступают живые люди, просто тянут из этого обучения всё, с чем сталкивались? Косяки, ложь, стремление отмазаться. И в дальнейшем просто считают это статистически приемлемыми элементами своей логики? По образу и подобию, так сказать?
если люди говорят 1, а затем 2, а затем как правило 3, то ллм когда ей по программе представится продолжить что сказать после 1 скажется скорее всего(шанс насколько точно придерживается регулируется в настройках) скажет 2, а затем 3.
не знающие люди будут восхищаться "вау! оно говорит как человек!", но по факту это удивление уровня гугл нашел текст человека и считать что это гугл сам написал.
но самое главное отличие тут в том, что человек говорит после 1 2 не просто так, а потому что считает что это донесет его мысль, но если надо может сказать и 3, 4, 5, 6, 7 и вообще что угодно, если подумает что так надо.
ллм же не думает - она просто действует по теории вероятности и выдает вариант как в настройках.
если в настройках задать, то она может вообще довольно случайно выбрать вообще что угодно, но это будет совсем адовые галлюцинации, НО это может быть забавно почитать.
а можно вообще убрать рэндумность, тогда там будет всегда сухой максимально подходящий по вероятности результат.
и для ллм нету такого такого понятия как "ложь" - всё есть просто цифры.
а ложь - это для высокоразвитых существ, не стоит приписывать к ним калькулятор из-за того что он может выдавать ответы почти как человек.