Как узнать день рождение учителя не спрашивая у него?
sanchecik
Знаток
(395),
закрыт
13 лет назад
очень надо, помогите!
Шавка Обыкновенная
Оракул
(70799)
13 лет назад
Сделайте вид, что увлечены гороскопами (гороскоп деревьев, например, есть, там важен именно день рождения, а не знак Зодиака) – ну, и спросите у учителя: “Вот вы, например, когда родились? ”
Или тупо – спросить у др. учителя или завуча :))))
Вопросы о биологическом возрасте становятся все более неприличными с точки зрения современной морали. Вас интересует, сколько лет прожил ваш новый знакомый, но вы боитесь или не хотите спрашивать прямо? Предлагаем вашему вниманию 5 способов, позволяющих достаточно точно определить возраст человека.
На зарядку становись!
Попросите человека сделать серию наклонов из положения стоя вперед, касаясь кончиками пальцев земли. Сколько наклонов получилось сделать в течение 1 минуты? Более 50 – перед вами двадцатилетний человек. 35-49 наклонов могут сделать здоровые люди в возрасте 30 лет. 30-34 раза это упражнение повторяют люди в возрасте 40 лет. Для пятидесятилетних норма – 25-29 повторений, а в возрасте 60 лет можно сделать это движение только 20-24 раза.
Любопытен также тест на равновесие. Попросите своего нового знакомого встать ровно и поднять одну ногу на высоту 10 см от пола. Задача испытуемого зафиксироваться в этом положении. Чем дольше он сможет так простоять, тем он моложе. 30 секунд сохранять равновесие могут люди в возрасте 20-30 лет, а шестидесятилетние способны выдержать это испытание в течение только 10 секунд.
Определить возраст человека можно, попросив его сцепить руки в замок за спиной. Если это легко получилось – вашему товарищу 20 лет. Для сравнения пятидесятилетним бывает тяжело просто завести обе руки за спину.
Возьмите в руку линейку длиной 50 см, держите ее вертикально – так, чтобы 0 был направлен вниз. Попросите испытуемого поймать линейку, когда вы ее отпустите. Отпускайте без предупреждения. Посмотрите, на каком делении линейки сомкнулись пальцы ловящего. Отметка 20 см равняется возрасту 20 лет, а отметка 45 см – 60 годам. Этот тест позволяет определить скорость реакции.
Задуть горящую свечу
Определить биологический возраст человека можно, попросив его задуть горящую свечу. Важно отмерить расстояние, с которого попытка увенчается успехом. С 1 метра с задачей легко справятся молодые люди в возрасте 20 лет. Сорокалетние смогут задуть свечу с 70-80 см, а шестидесятилетние – с 50 см.
Состояние кожи и морщины
Многие современные женщины тщательно ухаживают за собой, стараясь предотвратить появление возрастных изменений во внешности. Посмотрите на внутреннюю поверхность ладони. Более точно определить истинный возраст собеседника можно, попросив его оттянуть кожу. Понаблюдайте, как быстро она примет исходное положение. В возрасте до 45 лет кожа достаточно эластичная, на восстановление ее внешнего вида потребуется менее 5 секунд. Если процесс длится дольше, вероятно, вашему собеседнику уже 60 лет и более.
Приблизительно определить возраст незнакомца можно и по морщинам. Первые складки на лбу появляются уже после 20 лет, а в 50 лет они четко выражены. Вокруг глаз морщины появляются после 25, а вокруг носа и рта в 35 лет. Заметные морщины могут появиться раньше положенного срока в том случае, если у человека богатая мимика.
Как определить возраст человека в сети?
Чем быстрее человек отвечает на сообщения и комментарии, тем моложе он. Возможно все дело в том, что люди старше 30 лет действительно меньше сидят в интернете. Оцените популярность страницы. Если лайков и отметок слишком много, вероятно вы общаетесь с подростком. Молодые люди более общительны, им кажется, что реагировать следует на каждую публикацию.
Оцените смысловую нагрузку публикаций на странице. Люди в возрасте более 30 лет чаще делятся фотографиями природы и своих домов. Молодые пользователи предпочитают собственные изображения – селфи или обычные фотографии.
Нашли нарушение? Пожаловаться на содержание
Пусть вас не пугает столь жёлтый заголовок, и несмотря на настройки приватности, это действительно можно сделать, при этом очень простым и очевидным способом.
Перед написанием поста я подумал о том, что сначала необходимо сообщить об этом поддержке. Но зайдя в настройки приватности, и увидев приписку “на моей странице” рядом с графой день рождения, сомнения улетучились. Другими словами, это не баг, это фича.
То есть всё в рамках соглашения, которое вы
прочитали и
приняли. Если хотите скрыть свой день рождения, то это можно сделать только на вашей странице. Но в других местах вам не обещают держать дату в секрете. Одним из таких мест я и поделюсь.
Итак, возьмём любого пользователя этой популярной социальной сети и посмотрим его профиль.
У многих в графе «День рождения» отображается только число и месяц рождения, оно и понятно, зачем лишний раз упоминать о возрасте, но некоторые не хотят делится даже и числом.
Чтобы узнать дату рождения у тех и других следует проделать следующее:
Вот и всё, так просто. Поэтому я, как и многие другие, пользуюсь этим способом уже несколько лет.
P. S. Интересно как поступит администрация «ВКонтакте» после публикации этого поста.
Есть устойчивое мнение, что в нашей школьной системе образования работают учителя предпенсионного возраста, а также, что молодых учителей в школах почти нет.
И мы решили провести собственное исследование, чтобы доказать или опровергнуть это мнение наших подписчиков и общественного мнения в целом. Интересно же, действительно ли говорят правду Сергей Кравцов и другие чиновники, когда называют средний возраст педагогов в стране 45 лет.
Откуда берем данные
Данные берем из открытых источников. На школьных сайтах публикуется либо «отчет о самообследовании», либо «публичный отчет директора». Тот и другой файл – это самые точные данные по каждому учреждению, которые есть в открытом доступе.
Нарушение закона
Надо отметить, что мы изучили сайты разных школ, вплоть до школ крупных региональных центров, где данные либо совсем не представлены, либо опубликованы данные 10-летней давности.
А эти документы должны быть опубликованы на сайте, а ответственный за контроль чиновник в регионе должен производить удаленные проверки данной информации. Но, по всей видимости, кто-то получает свою зарплату «за красивые глаза».
Что смотрели
Смотрели то, что нам доступно. В целом, мы можем увидеть численность учителей в конкретной школе, их возрастную группу и педагогический стаж.
Вы можете каждую приведенную школу изучить самостоятельно. Ссылки на сайты школ будут в каждом блоке статьи.
В конце материала отразим итог увиденных цифр.
Приморский край
Муниципальное образовательное бюджетное учреждение Липовецкая средняя общеобразовательная школа № 2 Октябрьского муниципального округа
lipovtsy-2.edusite.ru
Хабаровский край
МАОУ Нош Первые шаги
first-step.edusite.ru
Республика Саха /Якутия/
Средняя общеобразовательная школа № 2 г. Нерюнгри им. М. К. Аммосова
neruschool2.edusite.ru
Бестяхская средняя общеобразовательная школа муниципальный район Хангаласский улус
bestsch.ru
Иркутская область
Магистральнинская средняя общеобразовательная школа № 2
moumsosh2.ucoz.ru
МАОУ г. Иркутска СОШ № 33
school33irk.ru
Ангарск
Средняя общеобразовательная школа № 10 с углубленным изучением отдельных предметов
school10.angarsk.info
Красноярский край
МАОУ СШ № 1 им. В. И. Сурикова
школа1-суриков.рф
Ханты-Мансийском автономном округе
Сургут
Средняя общеобразовательная школа № 1
school1.admsurgut.ru
МАОУ “СОШ № 9”
shkola9.online
МБОУ Саранпаульская средняя общеобразовательная школа
sch86-saranpaul.ru
Республика Коми
МАОУ СОШ № 12 г. Сыктывкара
sykt12school.ru
МАОУ СОШ № 18
we18.ru
Удорский район, с. Кослан
МОУ «КОСЛАНСКАЯ СРЕДНЯЯ ОБЩЕОБРАЗОВАТЕЛЬНАЯ ШКОЛА»
www.ksosh.ru
Республика Удмуртия
Средняя общеобразовательная школа № 55
ciur.ru/izh/S55_izh
Средняя общеобразовательная школа № 93
ciur.ru/izh/s93_izh
Нижегородская область
МБОУ школа № 91
school91-nn.ru
МБОУ школа № 133
school133.ru
Саратовская область
МБОУ Средняя общеобразовательная школа № 1
engschool1.ru
МОУ Средняя общеобразовательная школа
baskatovskool.edusite.ru
Астраханская область
Средняя образовательная школа № 12
school12astr.ucoz.ru
Володарская средняя общеобразовательная школа № 2
30vol-s2.edusite.ru
Чеченская республика
Школа № 20
sosh20.ssedu.ru
Краснодарский край
Муниципальное автономное общеобразовательное учреждение муниципального образования город Краснодар средняя общеобразовательная школа №103
school103.centerstart.ru
МАОУ Средняя школа № 94
school94.centerstart.ru
Сочи
Муниципальное общеобразовательное бюджетное учреждение гимназия №1 г. Сочи им. Филатовой Риммы Алексеевны
gymn1.sochi-schools.ru
Муниципальное общеобразовательное бюджетное учреждение средняя общеобразовательная школа №14 г. Сочи имени Героя Советского Союза Сьянова Ильи Яковлевича
school14.sochi-schools.ru
Ростовская область
МБОУ средняя общеобразовательная школа № 16
мбоусош16.рф
МАОУ города Ростова-на-Дону школа № 30 имени Героя Советского Союза Кравцова О. Т.
school30.roovr.ru
МБОУ Средняя школа № 16
nedvigovka-mousosh16.edusite.ru
Москва
Государственное бюджетное общеобразовательное учреждение города Москвы школа № 1208 имени Героя Советского Союза М. С. Шумилова
sch1208uv.mskobr.ru
ГБОУ Средняя общеобразовательная школа № 1399
schu1399.mskobr.ru
Новгородская область
Шимская средняя общеобразовательная школа
school-shimsk.edusite.ru
Санкт-Петербург
ГБОУ Средняя общеобразовательная школа № 525 имени Дважды Героя Советского Союза Г. М. Гречко
525school.ru
Архангельская область
МАОУ Холмогорская средняя общеобразовательная школа имени Михаила Васильевича Ломоносова
kholmschool.ru
Муниципальное бюджетное общеобразовательное учреждение “Рембуевская средняя школа”
rembuev-school.ru
Мурманская область
Школа № 49
school49.murm.eduru.ru
Средняя общеобразовательная школа № 4
school4umba.edusite.ru
Важно перед выводами
Данные цифры не являются доказательством возможного дефицита учителей, хотя явно в регионах, где доля молодых учителей небольшая, этот дефицит есть, так как видна тенденция к оттоку населения, в том числе, уезжают и учителя среднего возраста, таким образом, педагогический корпус истощается.
Выводы
- Многие могут остаться недовольными, но картина по стране стабильна. Но долго ли это будет продолжаться?..
- Учителей, которые работали еще в советское время, в школах практически нет. Сейчас в школах работают учителя, которые могли получать образование в позднем СССР, но, чтобы учитель обладал большим опытом в советское время, таких в школах очень мало.
- Молодые учителя есть, но вот определить их достаточность для дальнейшего замещения, анализируя данные из открытых источников, нельзя. Нужны данные в динамике, а таких данных у нас нет.
- Распределение молодых учителей и учителей среднего возраста по стране совершенно неоднородно. При этом, стоит отметить, что молодые учителя выбирают либо хороший климат, либо регион, где высокая средняя зарплата по региону. Это вполне закономерно.
- Есть явная угроза в некоторых регионах, что они могут действительно столкнуться с тотальной нехваткой учителей в ближайшие годы. Даже в перечне нашей случайной выборки есть школы, где молодых учителей и учителей до 30 лет просто нет. И эти регионы уже находятся в кризисе, так как в регионе молодежь не остается, все уезжают в ближние регионы.
- Крупные города чувствуют себя гораздо лучше. Доля молодых учителей примерна равна доле учителей в возрасте. Это говорит нам о том, что в этих регионах дефицит не очень серьезный, а замещение педкадров проходит стабильно.
- Нужно решать вопрос с заработной платой, так как при видимой стабильности мы наблюдаем надвигающуюся проблему: те регионы, где уже есть дефицит в молодых кадрах, являются территориями- донорами для больших городов. Данные территории истощены, и подпитка для больших городов на исходе, а население страны продолжает внутреннюю миграцию в крупные города, где усиленно строят школы. Поэтому остро стоит вопрос о том, где брать новые кадры? И это основная проблема.
Самый важный вывод из проведенного анализа:
При всей общей условной «нормальности» мы находимся на пороге действительно большой проблемы. В некоторых регионах мы уже имеем такую ситуацию, когда восполнение педкадров займет годы. На сегодняшний день это лишь часть регионов страны. А если все будет доведено до состояния, когда почти все регионы страны будут в таком кризисе? Система подготовки педкадров просто не сможет восполнить нужный объем учителей в срок. Следовательно, может начаться волнообразное падение даже того качества обучения, которое есть сегодня.
А вы какие выводы можете сделать из приведенных цифр в материале? Видите ли вы в них надвигающуюся угрозу, сравнимую с цунами?
❗👉 Понравился материал? Поддержите нас репостом😎
Еще больше информации в telegram-канале Обучение ПРО.
Помните те времена, когда вы были молоды и случайно спросили свою учительницу, сколько ей лет? Да, я знаю, финал прошел не так хорошо. Ваши родители рассердились на вас, потому что они уже сказали вам поговорку «никогда не спрашивайте женщину ее возраста, а мужчину – его зарплату» 🙄. Но разве не больно, когда вы задаете вопрос кому-то напрямую, а единственный ответ, который вы получаете от них, – это то, что вы ставите себя в неловкое положение?
Но что, если я скажу вам, что есть способ выбраться из этого? Что, если бы вы могли просто сфотографировать любого человека в этом мире и определить его возраст? Вводя ̶S̶r̶i̶T̶e̶c̶h̶: ̶ ОДНОМ ПОДХОДЕ К некоторым ̶k̶i̶d̶’̶s̶ ̶c̶h̶a̶l̶l̶e̶n̶g̶e̶s̶.̶ Крупнейшая Я учил AI (да, мой 💻), чтобы сказать мне, как старый мой учитель, без того, чтобы спросить ее, и есть все мои друзья смеются на меня быть идиотом. Поговорим об этом подробнее.
Nerding Out Сезон 1 Эпизод 101: Как ваша Windows Vista из времен Второй мировой войны читала изображения
Я не собираюсь вдаваться в подробности, что такое искусственный интеллект и глубокое обучение, но я написал Ultimate AI Textbook, в котором есть все (как учебник), чтобы вы могли понять всю сложную математику и предварительные вычисления на 👶 языке.
Искусственный интеллект – это наука, заставляющая машины учиться. Подумайте об этом так: завтра у вас будет математический тест по векторам, а ваш учитель даже не объяснил, что такое векторы. Вы думаете: «Какого черта? Что мне делать? тьфу, завтра я провалю тест, и в конце концов мои друзья рассмеют его 😦. Но благодаря Стиву Джобсу у нас есть чат-бот, известный как Siri. Итак, вы skrt skrt и говорите: «Привет, Siri». Через 5 минут разговора о векторах вы понимаете: «Эй! На самом деле у меня есть друзья. Его зовут Сири! »
Часть вашего разговора «как» – это ИИ. Сири думала как человек. Черт возьми, это искусственный человек, который копирует человеческий интеллект (отсюда и название искусственный интеллект). Но давайте немного углубимся в глубокое обучение.
Как я уже сказал в отношении ИИ, обратитесь к моему Учебнику по ИИ для лучшего понимания всего. Глубокое обучение – это имитация человеческого мозга с помощью так называемой искусственной нейронной сети.
Я с вами на все 100% согласен. Это СТРАШНО. Как будто быть подбитым на Хэллоуин – это НИЧЕГО по сравнению с этим. Представьте, что вам нужно проходить Wx + b каждый божий день (ладно, не так страшно, но вы поняли)!
Глубокое обучение имеет 3 основных уровня: входной, скрытый и выходной. Слой ввода – это данные. Здесь вы вводите свои данные в нейронную сеть. Оттуда эти данные проходят через различные типы функций, такие как функция активации. В основном, давайте посмотрим на h [1] [1] (первый нейрон в слое h1 на изображении выше ☝). h1 – это взвешенная сумма каждого входа во входном слое i.
Подумайте об этом так: давайте просто скажем, что i [1] (первый нейрон в слое i) имеет значение 1. Вес (который является линией, которая соединяется с нейронами в h1) имеет значение, связанное с ним. Допустим, значение веса для i [1] и h [1] [1] равно 2. Допустим, у нас также есть смещение, равное 1. Итак, мы пропустим это через нашу функцию Wx + b. Теперь мы просто подставляем значения (2 * 1 + 1 = 3), и теперь h [1] [1] имеет значение 3! Мы просто продолжим делать это для каждого нейрона, пока не закончим.
Напомним, что мы получаем x из входных данных. Например, каждый нейрон на входе может быть данными в градусах Фаренгейта, и наша цель – научить нейронную сеть преобразовывать их в градусы Цельсия. W (вес) говорит нам, насколько важен этот нейрон. Чем больше вес, тем большую роль он играет в нейронной сети. Например, если бы я хотел, чтобы компьютер считывал изображения рукописных цифр, мы бы хотели, чтобы нейроны, в которых хранится рукописная цифра, имели больший вес, поскольку это то, что мы хотим знать.
Получив всю взвешенную сумму для h [1] [1], мы запускаем ее с помощью функции активации. Функция активации сообщает нейронной сети, следует ли активировать конкретный нейрон. Результат всегда будет между 0 и 1 (так как запас небольшой, компьютер получит более высокую точность). Результат будет зависеть от используемой функции. Например, пошаговая функция выдает только 0 или 1, если выходное значение превышает определенный порог. Выпрямленный линейный блок (ReLU) вернет 0, если выход равен 0 или меньше, иначе он просто вернет выход.
Ага! Это общая GIST глубокого обучения! Я говорю это как сотый раз, но взгляните на статью в Учебнике; там вы узнаете намного больше!
В самое интересное: сверточные нейронные сети (CNN)
ааааа, сверточные нейронные сети. вот где настоящие веселые существа. нет, не весело, как часами наблюдать за тренировкой вашей модели, но весело, как проводить часы и часы на переполнении стека с ошибками формы 😁. В любом случае, вы здесь не для того, чтобы слушать мою тираду, так что давайте прямо сейчас погрузимся в это!
CNN – это тип алгоритма глубокого обучения, который специализируется на распознавании изображений и объектов. Большинство людей обычно говорят: «Шри, в чем разница между CNN и обычной нейронной сетью с прямой связью?» Что ж, вот ответ: хотя сети прямого распространения будут работать для базовых изображений, таких как набор данных MNIST, они будут абсолютно УЖАСНЫ при работе с изображениями, которые настолько богаты данными и пикселями.
Общая цель CNN – уменьшить количество «богатства» изображения до формы, которую действительно легко обработать, сохраняя при этом основные характеристики и детали, необходимые для получения действительно хорошего прогноза.
Глава 1. Свертки
Сверточная нейронная сеть – свертки = нейронная сеть. Возьми? Без извилин CNN просто не существует. Они «вдыхают» жизнь в CNN.
Свертки работают следующим образом: у нас есть нечто, известное как ядро, шаг и отступ. Давай попробуем это разобрать. У вас действительно сложная математическая задача, которую учитель сказал вам решить к завтрашнему дню:
Вы не сумасшедший, который просто подставляет любое значение, которое вам сказал учитель, и просто решает его. Вместо этого вы используете 🧠 и понимаете: «Эй! Мы можем просто разбить это на части, пока не получим что-то действительно маленькое, с чем будет легче иметь дело! »
Вот как работают извилины. Математическая проблема – это изображение, и вы решаете ее с помощью ядра, шага и заполнения. Давайте поговорим о каждом подробнее:
Ядро (зеленая сетка 3×3 наверху) – это, по сути, фильтр, который мы пропускаем в нашу сеть. Используя это, мы будем выполнять матричное умножение по всему изображению. Выходные данные, которые мы получаем, представляют собой красную сетку справа. Расстояние, на которое перемещается ядро, называется шагом. В приведенном выше примере шаг установлен на единицу, что просто означает, что он переходит к следующей матрице пикселей по одному. Если бы у вас был шаг в два, это означало бы, что вы при этом пропускали бы строку / столбец пикселей.
После того, как мы произведем умножение матрицы, мы все просуммируем, а затем выведем наше единственное значение (значения выделены красным). Значения ядра (которое выполняет умножение матрицы на пиксели) обычно выбираются случайным образом, а затем оптимизируются с использованием градиентного спуска. Но иногда длина матрицы вашего изображения не ровная. Что делать, если у вас есть матрица 5×5 вместо приведенной выше 6 на 6? Не будут ли пиксели перекрываться?
Ответ на это – заполнение, в частности нулевое заполнение. Имя дает все; добавляем к изображению границу из нулей.
Теперь после этого наша матрица снова станет ровной !! Надеюсь, это был интуитивный пример того, что такое свертки. Если у вас есть вопросы, напишите мне @srianumakonda.
Глава 2: Maxpooling
Maxpooling. хмммм 🤔 звучит так, будто ты тратишь больше времени ⌚ когда плаваешь 🏊♀️.
Ладно, на сегодня хватит шуток. Maxpooling принимает максимальное значение при определенном размере ядра. Вернемся к свертке, которую мы выполнили выше. Как правило, после того, как изображение становится запутанным, большинство людей выбирают его максимальный пул. Допустим, размер нашего ядра был 2×2. Так же, как свертки, мы применяем его к изображению. Оттуда к выходным данным будет добавлено наибольшее значение в кадре ядра. Изображение ниже должно прояснить все ваши вопросы 👇.
Глава 3. Отсев и переобучение
Подумайте о переобучении так: допустим, ваш учитель сказал вам выучить таблицы умножения, чтобы вы могли выполнять EQAO. Итак, как хороший ученик, вы все запоминаете. Но затем, когда вы пишете EQAO, они просят вас «объяснить свой ответ» и объяснить, как 8 * 8 = 64. Что ж, вы облажались. Вы просто сосредоточились на запоминании и не понимали, как 8 * 8 = 64.
Вот что такое переобучение в нейронных сетях. Нейронная сеть запоминает все данные обучения, и когда ей дается тестовое изображение, она просто ломается.
Мы решаем эту проблему с помощью выпадения. Выпадение – это метод, при котором случайным образом отбрасываются «нейроны». Это означает, что вместо фиксированного количества нейронов для каждого слоя у нас будет слой со случайным количеством узлов вместо того, чтобы следовать определенному нами количеству узлов x.
Поначалу это показалось мне странным. Какой смысл выключать нейроны? Разве это не ухудшит модель, поскольку мы потеряем эти детали и особенности?
Нет, этого не произойдет. Почему? Допустим, мы имеем дело с набором данных MNIST, который буквально представляет собой просто библиотеку рукописных цифр.
Когда мы передаем это в нейронную сеть, что, если веса на черном фоне больше, чем на белом фоне? Что, если модель уделяет больше внимания фону, а не самой цифре?
БУМ 💥. Вот тут и появляется выпадение. При отключении этих узлов они случайным образом сбрасываются и начинают фокусироваться на самой рукописной цифре, а не продолжают играть с фоном.
Глава 4. Нормализация пакета
Пакетная нормализация, как правило, является темой, о которой большинство людей мало что знает. Если ничего не имеет смысла, эта статья и эта статья должны помочь вам немного лучше.
Когда у нас есть данные изображения, первое, что сделает большинство людей, это нормализует данные. В основном это означает, что всякий раз, когда у нас есть изображение (возьмем изображение в оттенках серого для этого примера), значения пикселей находятся в диапазоне от 0 до 255 (0 означает черный, 255 означает белый). Это ОГРОМНЫЙ диапазон для компьютера, поскольку, конечно же, компьютер должен преобразовать все в двоичный код и использовать больше оперативной памяти. Итак, что мы можем сделать, так это изменить диапазон от 0 до 255 на 0–1. Это значительно упростит работу с компьютером и поможет вам избавиться от необходимости долго ждать.
То же самое можно сказать и о нейронных сетях. Даже если мы пропустим все через наши функции активации, в какой-то момент мы получим действительно большое значение. Нормализация, которая может значительно упростить работу с моделью, ускорить ее, позволив нам использовать более высокую скорость обучения, и может уменьшить переобучение в некоторых ситуациях.
Глава 5. Функции активации
Есть НАБОР функций активации. Я уже говорил об этом выше, но TLDR заключается в том, что функции активации сообщают нейронной сети, должны ли определенные узлы быть «включены» или нет.
Функция активации, которую я использовал для своей нейронной сети, известна как выпрямленная линейная единица (ReLU). ReLU, несомненно, является наиболее распространенным типом используемых функций активации, потому что а) его можно использовать практически в любом месте в глубоком обучении и б) это действительно очень просто.
Первое, что следует отметить, это то, что ReLU является нелинейным по своей природе, поэтому подгонка нелинейных данных с помощью функции активации не должна быть проблемой. Особенность ReLU в том, что он может сделать модель намного легче. ReLU работает следующим образом: если выход нейрона ≥ 0, то нейрон не будет запущен, так как он имеет значение 0. В противном случае ReLU просто вернет выходной сигнал.
Преимущество этого заключается в том, что срабатывают не многие нейроны, что на удивление действительно хорошо. Это главным образом потому, что это сделает модель намного легче, что, в свою очередь, позволит обучаться намного быстрее и будет использовать меньше оперативной памяти. Это также совсем несложно и, как правило, можно использовать в любой ситуации.
Глава 6. Собираем все вместе
Теперь, когда мы поговорили об основных компонентах нейронной сети, давайте все вместе! Вы можете увидеть общую архитектуру модели ниже:
neural_network( (layer1): Sequential( (0): Conv2d(1, 64, kernel_size=(3, 3), stride=(1, 1)) (1): ReLU() (2): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) (3): Dropout(p=0.2, inplace=False) (4): MaxPool2d(kernel_size=(2, 2), stride=(2, 2), padding=0, dilation=1, ceil_mode=False) ) (layer2): Sequential( (0): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1)) (1): ReLU() (2): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) (3): MaxPool2d(kernel_size=(2, 2), stride=(2, 2), padding=0, dilation=1, ceil_mode=False) (4): Dropout(p=0.25, inplace=False) (5): ReLU() ) (layer3): Sequential( (0): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1)) (1): ReLU() (2): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) (3): Dropout(p=0.2, inplace=False) (4): MaxPool2d(kernel_size=(2, 2), stride=(2, 2), padding=0, dilation=1, ceil_mode=False) ) (layer4): Sequential( (0): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1)) (1): ReLU() (2): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) (3): Dropout(p=0.2, inplace=False) (4): MaxPool2d(kernel_size=(2, 2), stride=(2, 2), padding=0, dilation=1, ceil_mode=False) ) (flatten): Flatten() (dropout): Dropout(p=0.25, inplace=False) (output): Linear(in_features=512, out_features=2, bias=True) )
У нас есть 4 слоя, каждый из которых имеет свертку, ReLU, затем BatchNormalization, Dropout и затем Maxpooling. Мы повторяем это 4 раза, а затем сглаживаем результат в одномерный вектор. Оттуда мы помещаем еще один слой Dropout, а затем помещаем плотный слой в качестве нашего вывода (от 512 узлов до 2).
Подводя итог: обучение и тестирование нашей модели
После тестирования и всего остального модель достигла точности 50–70%. Это довольно плохо, но сейчас мы работаем над тем, чтобы добиться точности до 80%. Вы можете найти код GitHub здесь. Код в настоящее время обновляется, поэтому обязательно загляните на мой GitHub!
Cya позже аллигатор 🐊
Спасибо за прочтение! Вот мои подписка на рассылку новостей, linkedin, twitter, электронная почта и веб-сайт.
Если вы хотите узнать обо мне больше, загляните в мой сентябрьский информационный бюллетень!
Cya!
– Шри