Уважаемые пользователи Голос!
Сайт доступен в режиме «чтение» до сентября 2020 года. Операции с токенами Golos, Cyber можно проводить, используя альтернативные клиенты или через эксплорер Cyberway. Подробности здесь: https://golos.io/@goloscore/operacii-s-tokenami-golos-cyber-1594822432061
С уважением, команда “Голос”
GOLOS
RU
EN
UA
oleg1301
7 лет назад

Почему мы пишем сверху вниз?

q.jpg

Всем привет.

Сижу на работе, выделил немного времени на изучение нового, зашел на сайт, где информация представлена не в стандартном виде. Далее полился поток различных визуализаций. Возник вопрос: почему информация (текстовая например) записывается и читается сверху вниз?

Почему с самого детства мы учимся писать и читать таким образом? Кто-то скажет, что за бред, но я уверен, что если бы людей приучали читать, например, и писать снизу вверх, то они уже сетовали бы на бред, если бы им задавали вопрос "Почему мы не пишем текст сверху вниз".

Вот у людей издавна само по себе возникло желание работать с информацией таким образом или это было сделано сознательно?

Я решил поэкспериментировать и набрал небольшой абзац снизу вверх, поменяв порядок строчек (просто параллельно читал whitepaper, поэтому текст такой...Для удобства восприятия и при желании попробуйте другой, более удобный) (:

решена…
проблема one-shot обучения (one- shot learning) может быть успешно
предобученных моделей и семантических категорий. Таким образом
решать задачу внутреннего переноса знаний с помощью
которые будут реализованы в нашем продукте смогут эффективно
перенос знаний (Transfer learning). Технические и научные решения,
к решению проблемы: регуляризация, архитектурные хитрости,
размерности), и чем меньше обучающих семплов. Существует три подхода
Проблема тем больше, чем больше параметров у сети (проклятие
результаты, а на тестовой плохие, так как там другие частные случаи
случаи. В результате на обучающей выборке она показывает хорошие
параметров), то сеть вместо глубокого обобщения запоминает частные
предметная область сложная (т.е. для её описания нужно много
мешает переобучение (overfitting). Оно заключается в том, что когда
Обобщать по маленькому количеству семплов современным сетям
достаточно пары частных примеров, чтобы сделать глубокое обобщение.
где больших датасетов не создано. В то же время, человеку нередко бывает
или нескольких примеров. Это затрудняет их использование в тех областях,
датасеты большого размера. Они не умеют что-то понимать с одного
…Современные нейросети для успешного обучения требуют обучающие

23.png

Также попробовал на бумаге написать текст снизу вверх. Наверное, не буду писать, на что похожи ощущения, хочу чтобы вы сами испытали что-то, не ориентируясь заранее на что-то определенное : )

Будет интересно, что получится. Попробуйте и напишите о своих результатах, если хотите, а также хотелось бы узнать, кто что думает по этому поводу.

11
0.000 GOLOS
На Golos с May 2017
Комментарии (2)
Сортировать по:
Сначала старые