Начнем с того, что язык программирования - это способ общения с ЭВМ, в процессоре которой заложены инструкции, составленные на двоичной системе (изначально ламповые ЭВМ были в позиции лишь вкл/выкл, т.е. 1/0... слова ради, была еще разработка на основе 5-ламповой системы, 12345 - выкл и 67890 - вкл, но бинарная система была на хайпе, а 5-ламповая еще жрала больше энергии тогда, но 5-ричная была удобнее для вычисления дробных чисел с теми же проблемами 10-ричной системы (я про 1/3, 2/3, 1/6, и т.д.), в отличие от современных проблем 0,2+0,1=3,00...004).
Однако писать инструкции "словами" из 4-16 единиц и нулей было проблематично (популярные форматы были 6, 8 и 9 бит; осталось только 8 бит = 1 байт - это и есть "машинное слово"), т.к. можно было запросто совершить ошибку. Поэтому было кто-то умный подумал: "А что если..." взять нормальные английские слова и сказать, что 1 буква англ. алфавита будет иметь значение из нулей и единиц... так появилась предтеча ASCII, 128 символов (27 = 7бит + 1бит для спец нужд) оказалось мало, и ее расширили до 8 бит = 256 символов, сократив количество спец инструкций ("/n" и "/t" - известны всем: это перенос строки (enter) и отступ-табуляция (tab)).
Затем был придуман комплилятор, который переводил инструкции в нули и единицы, для этого было придумано немало языков, но популярным стал Assembly [language](Язык Сборки или Сборщик/Assembler), по-русски) -- не уверен в верности этой инфы, что он был один из первых, но "проверять я это, конечно же, не стану", возможно это был Фортран. Теперь каждые 8 бит теперь не представляли программу, а представляли одну команду из последовательности.
Затем появились перфокарты и первые программы, где эти команды нужно было вводить не вручную, а тупо пробивать дырки (на обороте обычно печатными буквами писали нормальную инструкцию по-человечески)... Это было удобно, но сложные программы содержали стопки перфокарт (так одна мадам обнаружила первый баг - на карточке с ошибкой был еще и раздавленный жук - bug, англ).
И поняли, что не плохо было, если бы не нужно было пробивать дырки, а сразу писать инструкции на человеческом языке... И вот появились первые нормальнаые языки, вроде Алгола, Фортрана, Лиспа и Кобола...
Затем, последовательные инструкции нужно было как-то обходить, и императивный стиль программирования (с известными многих по Basic инструкцией goto) сменился на структурированный (C) и затем на объектно-ориентированный (C++, он не первый, но более известный из этой парадигмы), затем появились еще и функциональные языки. Кстати, инструкция goto до сих пор используется, но в большинстве языков - по капотом... (Так в том же Python есть декораторы циклов, которые являются просто калькой инструкции goto, сильно упрощенной для написания кода; да и сами циклы - это if-goto-else-goto).
Затем программисты захотели, чтобы было легко оперировать памятью, типа, "а что если бы ЭВМ сама управляла памятью" и появились сборщики мусора, умные указатели и т.д. Так появились языки высокого уровня, максимально приближенные к человеческому языку.
Вот как-то так... Суммируя: языки программирования появились для удобства программистов ради облегчения их работы (тем, кто не в теме: здесь нужно посмеяться).