{"id":25799984,"url":"https://github.com/redmooner/neural-network-for-approximation","last_synced_at":"2025-08-15T22:38:00.707Z","repository":{"id":156963093,"uuid":"633230759","full_name":"RedMooner/neural-network-for-approximation","owner":"RedMooner","description":"a simple neural network implemented in Python and C# to approximate functions","archived":false,"fork":false,"pushed_at":"2023-05-02T04:47:57.000Z","size":125,"stargazers_count":1,"open_issues_count":0,"forks_count":0,"subscribers_count":2,"default_branch":"master","last_synced_at":"2025-02-27T20:38:26.046Z","etag":null,"topics":["approximation","csharp","jupyter","jupyter-notebook","neural-network","python3"],"latest_commit_sha":null,"homepage":"","language":"Jupyter Notebook","has_issues":true,"has_wiki":null,"has_pages":null,"mirror_url":null,"source_name":null,"license":null,"status":null,"scm":"git","pull_requests_enabled":true,"icon_url":"https://github.com/RedMooner.png","metadata":{"files":{"readme":"README.md","changelog":null,"contributing":null,"funding":null,"license":null,"code_of_conduct":null,"threat_model":null,"audit":null,"citation":null,"codeowners":null,"security":null,"support":null,"governance":null,"roadmap":null,"authors":null,"dei":null,"publiccode":null,"codemeta":null}},"created_at":"2023-04-27T04:00:06.000Z","updated_at":"2023-07-18T05:05:17.000Z","dependencies_parsed_at":null,"dependency_job_id":"a697e2ab-4805-4c18-abc5-fa98a7ef2765","html_url":"https://github.com/RedMooner/neural-network-for-approximation","commit_stats":null,"previous_names":[],"tags_count":2,"template":false,"template_full_name":null,"purl":"pkg:github/RedMooner/neural-network-for-approximation","repository_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories/RedMooner%2Fneural-network-for-approximation","tags_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories/RedMooner%2Fneural-network-for-approximation/tags","releases_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories/RedMooner%2Fneural-network-for-approximation/releases","manifests_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories/RedMooner%2Fneural-network-for-approximation/manifests","owner_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/owners/RedMooner","download_url":"https://codeload.github.com/RedMooner/neural-network-for-approximation/tar.gz/refs/heads/master","sbom_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories/RedMooner%2Fneural-network-for-approximation/sbom","scorecard":null,"host":{"name":"GitHub","url":"https://github.com","kind":"github","repositories_count":270639039,"owners_count":24620647,"icon_url":"https://github.com/github.png","version":null,"created_at":"2022-05-30T11:31:42.601Z","updated_at":"2022-07-04T15:15:14.044Z","status":"online","status_checked_at":"2025-08-15T02:00:12.559Z","response_time":110,"last_error":null,"robots_txt_status":"success","robots_txt_updated_at":"2025-07-24T06:49:26.215Z","robots_txt_url":"https://github.com/robots.txt","online":true,"can_crawl_api":true,"host_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub","repositories_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories","repository_names_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repository_names","owners_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/owners"}},"keywords":["approximation","csharp","jupyter","jupyter-notebook","neural-network","python3"],"created_at":"2025-02-27T15:58:09.435Z","updated_at":"2025-08-15T22:38:00.699Z","avatar_url":"https://github.com/RedMooner.png","language":"Jupyter Notebook","readme":"# neural-network-for-approximation\n# Реализация нейронной сети с одним скрытым слоем\n\nДанный код представляет реализацию нейронной сети с одним скрытым слоем для аппроксимации непрерывной функции многих переменных.\n\n## ООП\n\nДля улучшения структуры кода был добавлен ООП подход.\n\n## Теорема Цыбенко\n\nТеорема, доказанная Джорджем Цыбенко в 1989 году, которая утверждает, что искусственная нейронная сеть прямой связи с одним скрытым слоем может аппроксимировать любую непрерывную функцию многих переменных с любой точностью.\n\nЧтобы доказать эту теорему, в коде реализуется искусственная нейронная сеть прямой связи с одним скрытым слоем, которая аппроксимирует функцию \"ApproxFunc(x)\", заданную в коде.\n\n# Комментарии к коду\n\nЭтот код реализует аппроксимацию функции с помощью искусственной нейронной сети. Ниже приведен краткий комментарий к каждой части кода.\n\n`%matplotlib` - магическая команда Jupyter Notebook для вывода графиков в ноутбуке.\n\n`import numpy as np` - подключение библиотеки для работы с массивами и матрицами.\n\n`import sys` - модуль системы.\n\n`import math` - модуль математических функций.\n\n`import matplotlib.pyplot as plt` - подключение библиотеки для построения графиков.\n\n`def ApproxFunc(x):` - определение функции для аппроксимации.\n\n`pcenter = 0` - центр интервала, на котором будет проводиться аппроксимация.\n\n`prange = 10` - длина интервала, на котором будет проводиться аппроксимация.\n\n`step = 0.1` - шаг.\n\n`period = np.arange(pcenter-prange , pcenter+prange,step)` - создание массива из значений интервала.\n\n`plt.plot(period,ApproxFunc(period))` - построение графика функции для аппроксимации.\n\n`class ApproximationNN(object):` - определение класса искусственной нейронной сети.\n\n`def __init__(self, learning_rate=0.1, input_nodes=1, hidden_nodes=50, output_nodes=1):` - конструктор класса.\n\n`self.weights_0_1 = np.random.normal( 0.0, hidden_nodes ** -0.5, (hidden_nodes, input_nodes))` - инициализация матрицы весов между входным и скрытым слоями.\n\n`self.weights_1_2 = np.random.normal(0.0, output_nodes ** -0.5, (output_nodes, hidden_nodes))` - инициализация матрицы весов между скрытым и выходным слоями.\n\n`self.sigmoid_mapper = np.vectorize(self.sigmoid)` - создание векторизованной функции сигмоиды.\n\n`self.learning_rate = np.array([learning_rate])` - инициализация скорости обучения.\n\n`def set_lr(lr):` - функция для изменения скорости обучения.\n\n`def sigmoid(self, x):` - функция для вычисления сигмоиды.\n\n`def predict(self, inputs):` - функция для прогнозирования выходного значения.\n\n`def train(self, inputs, expected_predict):` - функция для обучения нейронной сети.\n\n`lr = 0.00005` - скорость обучения.\n\n`myNN = ApproximationNN(learning_rate=lr, input_nodes=1, hidden_nodes=150, output_nodes=1)` - создание объекта класса нейронной сети.\n\n`set_count = 100` - количество наборов данных для обучения.\n\n`rand_set = np.random.random(set_count)*2*prange-prange+pcenter` - создание набора случайных данных.\n\n`def Train():` - функция для обучения.\n\n`def MSE(y, Y):` - функция для вычисления среднеквадратичной ошибки.\n\n`epochs = 100` - количество эпох обучения.\n\n`plt.ion()` - включение интерактивного режима графиков.\n\n`for e in range(epochs):` - цикл для обучения нейронной сети.\n\n`for tr in range(100):` - цикл для обучения на каждом наборе данных.\n\n`plt.clf()` - очистка графика.\n\n`plt.plot(period, ApproxFunc(period), 'blue')` - построение графика функции для аппроксимации.\n\n`rand_set = np.random.random(set_count)*2*prange-prange+pcenter` - создание набора случайных данных.\n\n`result_set=np.zeros(100)` - инициализация массива результатов.\n\n`MSE=0` - инициализация среднеквадратичной ошибки.\n\n`for x in range(0, set_count-1):` - цикл для прогнозирования на каждом наборе данных.\n\n`result_set[x] = myNN.predict([rand_set[x]])` - прогнозирование выходного значения.\n\n`MSE+= (ApproxFunc(rand_set[x]) - result_set[x])**2` - вычисление среднеквадратичной ошибки.\n\n`plt.scatter(rand_set[x], result_set[x], c='red')` - построение точек на графике.\n\n`print(rand_set[x], rand_set[x])` - вывод значений.\n\n`plt.pause(1)` - остановка на секунду.\n\n`myNN.set_lr(0.000001)` - изменение скорости обучения.\n","funding_links":[],"categories":[],"sub_categories":[],"project_url":"https://awesome.ecosyste.ms/api/v1/projects/github.com%2Fredmooner%2Fneural-network-for-approximation","html_url":"https://awesome.ecosyste.ms/projects/github.com%2Fredmooner%2Fneural-network-for-approximation","lists_url":"https://awesome.ecosyste.ms/api/v1/projects/github.com%2Fredmooner%2Fneural-network-for-approximation/lists"}