From 1614f8d20c3ffb37d9ac02e15e5940592fdb32b7 Mon Sep 17 00:00:00 2001 From: BautistaAcosta Date: Tue, 10 Sep 2024 12:51:53 -0300 Subject: [PATCH 1/3] agrego nuevo readme --- README_nuevo.md | 22 ++++++++++++++++++++++ 1 file changed, 22 insertions(+) create mode 100644 README_nuevo.md diff --git a/README_nuevo.md b/README_nuevo.md new file mode 100644 index 0000000..dcea652 --- /dev/null +++ b/README_nuevo.md @@ -0,0 +1,22 @@ +## Overview + +## Redes neuronales y aprendiendo en lo profundo + + +## Descripción +En este repositorio vamos a aprender sobre redes neuronales, basandonos en el libro de Michael Nielsen "neuralnetworksanddeeplearning.com". Haremos videos explicativos sobre los diferentes temas basandonos en dichos capítulos del libro,y mostraremos el funcionamiento de los códigos. + +### Capítulos +1. Capitulo 1: "Usando redes neuronales para reconocer números escritos a mano". Veremos como una red neuronal puede aprender a reconocer dígitos escritos a mano, utilizando como ejemplo el conjunto de datos MNIST. Introduciremos conceptos básicos sobre las redes neuronales. +2. Capitulo 2: "Como funciona el algoritmos de backpropagation". Analizaremos más en profundidad, y utilizando matematicas la forma de aprender de las redes. +3. Capitulo 3: "Mejorando la forma en que las redes neuronales aprenden". Veremos algunas formas de mejorar la forma de aprendizaje de las redes neuronales. +4. Capitulo 4: "Una prueba gráfica que las redes neuronales pueden computar cualquier función ". Estudiaremos y veremos de forma visual el teorema de Wiestrass +5. Capitulo 5: "¿Porque las redes profundas son dificiles de entrenar?. Nos adentraremos en el mundo de las redes profundas, y porque son díficiles de entrenar comparado con redes nueronales no profundas. +6. Capitulo 6: "Aprendizaje profundo". Mencionaremos brevemente el aprendizaje profundo de las redes neuronales profundas. + +#### Reconocimientos +Este proyecto es un fork de Michael Daniel Dobrzanski que es un fork del proyecto de Michael Nealsen + +##### License +Disributed under MIT License. [Link](LICENSE.md). + From 6b5001b24943db0a816cdd05ce76ab23d286205e Mon Sep 17 00:00:00 2001 From: BautistaAcosta Date: Thu, 12 Sep 2024 09:25:09 -0300 Subject: [PATCH 2/3] edit readme --- README.md | 21 +++++--- README_nuevo.md | 22 -------- e | 132 ++++++++++++++++++++++++++++++++++++++++++++++++ 3 files changed, 145 insertions(+), 30 deletions(-) delete mode 100644 README_nuevo.md create mode 100644 e diff --git a/README.md b/README.md index fca1612..d8786ca 100644 --- a/README.md +++ b/README.md @@ -1,16 +1,21 @@ ## Overview -### neuralnetworksanddeeplearning.com integrated scripts for Python 3.5.2 and Theano with CUDA support +## Redes neuronales y aprendiendo en lo profundo -These scrips are updated ones from the **neuralnetworksanddeeplearning.com** gitHub repository in order to work with Python 3.5.2 -The testing file (**test.py**) contains all three networks (network.py, network2.py, network3.py) from the book and it is the starting point to run (i.e. *train and evaluate*) them. +## Descripción +En este repositorio vamos a aprender sobre redes neuronales, basandonos en el libro de Michael Nielsen "neuralnetworksanddeeplearning.com". Haremos videos explicativos sobre los diferentes temas basandonos en dichos capítulos del libro,y mostraremos el funcionamiento de los códigos. -## Just type at shell: **python3.5 test.py** +### Capítulos +1. Capitulo 1: "Usando redes neuronales para reconocer números escritos a mano". Veremos como una red neuronal puede aprender a reconocer dígitos escritos a mano, utilizando como ejemplo el conjunto de datos MNIST. Introduciremos conceptos básicos sobre las redes neuronales. +2. Capitulo 2: "Como funciona el algoritmos de backpropagation". Analizaremos más en profundidad, y utilizando matematicas la forma de aprender de las redes. +3. Capitulo 3: "Mejorando la forma en que las redes neuronales aprenden". Veremos algunas formas de mejorar la forma de aprendizaje de las redes neuronales. +4. Capitulo 4: "Una prueba gráfica que las redes neuronales pueden computar cualquier función ". Estudiaremos y veremos de forma visual el teorema de Wiestrass +5. Capitulo 5: "¿Porque las redes profundas son dificiles de entrenar?. Nos adentraremos en el mundo de las redes profundas, y porque son díficiles de entrenar comparado con redes nueronales no profundas. +6. Capitulo 6: "Aprendizaje profundo". Mencionaremos brevemente el aprendizaje profundo de las redes neuronales profundas. -In test.py there are examples of networks configurations with proper comments. I did that to relate with particular chapters from the book. +#### Reconocimientos +Este proyecto es un fork de Michael Daniel Dobrzanski que es un fork del proyecto de Michael Nealsen -### License +##### License Disributed under MIT License. [Link](LICENSE.md). - - diff --git a/README_nuevo.md b/README_nuevo.md deleted file mode 100644 index dcea652..0000000 --- a/README_nuevo.md +++ /dev/null @@ -1,22 +0,0 @@ -## Overview - -## Redes neuronales y aprendiendo en lo profundo - - -## Descripción -En este repositorio vamos a aprender sobre redes neuronales, basandonos en el libro de Michael Nielsen "neuralnetworksanddeeplearning.com". Haremos videos explicativos sobre los diferentes temas basandonos en dichos capítulos del libro,y mostraremos el funcionamiento de los códigos. - -### Capítulos -1. Capitulo 1: "Usando redes neuronales para reconocer números escritos a mano". Veremos como una red neuronal puede aprender a reconocer dígitos escritos a mano, utilizando como ejemplo el conjunto de datos MNIST. Introduciremos conceptos básicos sobre las redes neuronales. -2. Capitulo 2: "Como funciona el algoritmos de backpropagation". Analizaremos más en profundidad, y utilizando matematicas la forma de aprender de las redes. -3. Capitulo 3: "Mejorando la forma en que las redes neuronales aprenden". Veremos algunas formas de mejorar la forma de aprendizaje de las redes neuronales. -4. Capitulo 4: "Una prueba gráfica que las redes neuronales pueden computar cualquier función ". Estudiaremos y veremos de forma visual el teorema de Wiestrass -5. Capitulo 5: "¿Porque las redes profundas son dificiles de entrenar?. Nos adentraremos en el mundo de las redes profundas, y porque son díficiles de entrenar comparado con redes nueronales no profundas. -6. Capitulo 6: "Aprendizaje profundo". Mencionaremos brevemente el aprendizaje profundo de las redes neuronales profundas. - -#### Reconocimientos -Este proyecto es un fork de Michael Daniel Dobrzanski que es un fork del proyecto de Michael Nealsen - -##### License -Disributed under MIT License. [Link](LICENSE.md). - diff --git a/e b/e new file mode 100644 index 0000000..52b7dfb --- /dev/null +++ b/e @@ -0,0 +1,132 @@ +commit 2da41b6dd19dafae92db1facbc4ed19738e80551 (HEAD -> master, origin/master, origin/HEAD) +Author: michaldobrzanski +Date: Mon Nov 27 14:07:08 2023 +0100 + + added MIT license + +commit 2eae26e0bdcef314dcb18f13946a94320fb28a12 +Merge: ea229ac 11cd4c1 +Author: Michał Dobrzanski +Date: Wed Feb 24 08:57:56 2021 +0100 + + Merge pull request #32 from hamolicious/patch-1 + + Update network.py + +commit 11cd4c1643c39ada6a97b93dc2c522a3b59095ac +Author: Hamolicious <56944714+hamolicious@users.noreply.github.com> +Date: Fri Oct 23 13:12:15 2020 +0100 + + Update network.py + + - Removed semicolon line:73 + +commit ea229ac6234b7f3373f351f0b18616ca47edb8a1 +Merge: a8da42f 998e51b +Author: Michał Dobrzanski +Date: Thu Apr 19 07:36:33 2018 +0200 + + Merge pull request #11 from dgcampbe/patch-1 + + Small update for Python 3 + +commit 998e51b741e95c2e6fd18cdba7df0c9b94e7957f +Author: Dane +Date: Fri Mar 2 17:04:26 2018 -0500 + + Add str() to variables being printed + + I realized that the variables weren't strings despite having "%s" (I thought the "s" meant string) in Python 2. That is what you get for only dealing with Python 3. :P + +commit ce2c044fb2b85371d65b4c71ab08b3bed9ba8067 +Author: Dane +Date: Fri Mar 2 01:42:31 2018 -0500 + + Small update for Python 3 + + Changed two print statements to print functions to be compatible with Python 3 instead of Python 2. + +commit a8da42fef60e9de977e3ad382c0804a1fe58cbc5 +Merge: f48defe 2a26d29 +Author: Michał Dobrzański +Date: Mon Aug 28 11:01:48 2017 +0200 + + Merge pull request #2 from pa-m/master + + Avoid ImportError: cannot import name 'downsample'. New naming convention has been added in Theano 0.9 => use pool_2d instead + +commit 2a26d2937c2412c5ece5d26587a7351dcb226b67 +Author: pa-m +Date: Tue Apr 4 19:39:27 2017 +0200 + + Avoid ImportError: cannot import name 'downsample' + Since a change in theano 0.9 downsample.max_pool_2d has to be replaced with pool.pool_2d. + +commit f48defe06bfa1127fbda4f054b27d1e23c17c725 +Merge: e99416e 3ef0f0b +Author: Michał Dobrzański +Date: Thu Feb 9 10:31:15 2017 +0100 + + Merge pull request #1 from anandman/master + + updated mnist_average_darkness.py for Python 3.5.2 - further improvements + +commit 3ef0f0b575e0a6a96508fbb9ae6c51be2def8672 +Author: anand m +Date: Sat Feb 4 13:58:16 2017 -0800 + + updated for Python 3.5.2 + +commit e99416e6ad59e602d0dc3709a445c3a4efad259f +Author: Michał Dobrzański +Date: Sun Oct 23 12:00:59 2016 +0200 + + Update README.md + +commit a35f06c85e2903c81e3f9394ad7e5f24443e40ae +Author: Michał Dobrzański +Date: Sun Oct 23 11:57:30 2016 +0200 + + Working on network3.py - convolutional NN examples added + +commit 664aee31f815956aaef96a533521d1eddd5fb283 +Author: Michał Dobrzański +Date: Sun Sep 25 16:56:45 2016 +0200 + + Working Theano with CUDA7.5 Support at Ubuntu 16.04 + +commit f403c099829ee70700b60569a546ab7e9d6793b9 +Author: Michał Dobrzański +Date: Wed Sep 14 19:46:01 2016 +0200 + + Working on network3.py and Theano with CUDA + +commit 092007f9158a4a3ff56a08d03250a19ae8953753 +Author: Michał Dobrzański +Date: Tue Sep 13 11:51:49 2016 +0200 + + Chapter 4 - vanishing gradient problem in a deep networks + +commit 7283525363f379b99779c96b6cc82b25626c2249 +Author: Michał Dobrzański +Date: Fri Sep 9 15:28:59 2016 +0200 + + Early stopping implemented at network2.py + +commit 021657efa2f874453ebf94ca1598b38add9b7dc5 +Author: Michał Dobrzański +Date: Sat Jul 30 18:08:54 2016 +0200 + + Updated readme + 2nd example from 3rd chapter + +commit 988965a43e7b002c5bc03ecb675e9c0f15ba9072 +Author: Michał Dobrzański +Date: Fri Jul 29 20:23:55 2016 +0200 + + Create README.md + +commit 0edab8e2501621752d6dab41bf193a380eb2819b +Author: Michał Dobrzański +Date: Fri Jul 29 20:06:48 2016 +0200 + + Initial files From 4e0045c83edd40b1145dc16636cbf65732603ccf Mon Sep 17 00:00:00 2001 From: Arturo Beccar-Varela <107512933+arturoBeccar@users.noreply.github.com> Date: Thu, 12 Sep 2024 14:32:44 -0300 Subject: [PATCH 3/3] Update README.md --- README.md | 28 ++++++++++++++-------------- 1 file changed, 14 insertions(+), 14 deletions(-) diff --git a/README.md b/README.md index d8786ca..6bc9860 100644 --- a/README.md +++ b/README.md @@ -1,21 +1,21 @@ -## Overview +# Redes neuronales y aprendiendo en lo profundo 🐢 -## Redes neuronales y aprendiendo en lo profundo +![https://img.shields.io/badge/license-MIT-green](https://img.shields.io/badge/license-MIT-green) ## Descripción -En este repositorio vamos a aprender sobre redes neuronales, basandonos en el libro de Michael Nielsen "neuralnetworksanddeeplearning.com". Haremos videos explicativos sobre los diferentes temas basandonos en dichos capítulos del libro,y mostraremos el funcionamiento de los códigos. +En este repositorio vamos a aprender sobre redes neuronales, basandonos en el libro de Michael Nielsen [neuralnetworksanddeeplearning.com](http://neuralnetworksanddeeplearning.com/). Haremos videos explicativos sobre los diferentes temas basandonos en dichos capítulos del libro y mostraremos el funcionamiento de los códigos. -### Capítulos -1. Capitulo 1: "Usando redes neuronales para reconocer números escritos a mano". Veremos como una red neuronal puede aprender a reconocer dígitos escritos a mano, utilizando como ejemplo el conjunto de datos MNIST. Introduciremos conceptos básicos sobre las redes neuronales. -2. Capitulo 2: "Como funciona el algoritmos de backpropagation". Analizaremos más en profundidad, y utilizando matematicas la forma de aprender de las redes. -3. Capitulo 3: "Mejorando la forma en que las redes neuronales aprenden". Veremos algunas formas de mejorar la forma de aprendizaje de las redes neuronales. -4. Capitulo 4: "Una prueba gráfica que las redes neuronales pueden computar cualquier función ". Estudiaremos y veremos de forma visual el teorema de Wiestrass -5. Capitulo 5: "¿Porque las redes profundas son dificiles de entrenar?. Nos adentraremos en el mundo de las redes profundas, y porque son díficiles de entrenar comparado con redes nueronales no profundas. -6. Capitulo 6: "Aprendizaje profundo". Mencionaremos brevemente el aprendizaje profundo de las redes neuronales profundas. +## Capítulos +1. **Capítulo 1**: "Usando redes neuronales para reconocer números escritos a mano". Veremos como una red neuronal puede aprender a reconocer dígitos escritos a mano, utilizando como ejemplo el conjunto de datos MNIST. Introduciremos conceptos básicos sobre las redes neuronales. +2. **Capítulo 2**: "Como funciona el algoritmo de backpropagation". Analizaremos más en profundidad, y utilizando matematicas la forma de aprender de las redes. +3. **Capítulo 3**: "Mejorando la forma en que las redes neuronales aprenden". Veremos algunas formas de mejorar la forma de aprendizaje de las redes neuronales. +4. **Capítulo 4**: "Una prueba gráfica que las redes neuronales pueden computar cualquier función". Estudiaremos y veremos de forma visual el teorema de Wierstrass. +5. **Capítulo 5**: "¿Porque las redes profundas son dificiles de entrenar?". Nos adentraremos en el mundo de las redes profundas, y por qué son díficiles de entrenar comparado con redes nueronales no profundas. +6. **Capítulo 6**: "Aprendizaje profundo". Mencionaremos brevemente el aprendizaje profundo de las redes neuronales neuronales. -#### Reconocimientos -Este proyecto es un fork de Michael Daniel Dobrzanski que es un fork del proyecto de Michael Nealsen +## Reconocimientos +Este proyecto construye sobre un [fork de Michael Daniel Dobrzanski](https://github.com/MichalDanielDobrzanski/DeepLearningPython) del [proyecto original de Michael Nealsen](https://github.com/mnielsen/neural-networks-and-deep-learning). -##### License -Disributed under MIT License. [Link](LICENSE.md). +## Licencia +Distribuido bajo una licencia MIT. [Link](LICENSE.md).