\documentclass[a4paper,11pt]{article}
\usepackage[utf8]{inputenc}
\usepackage[english,greek]{babel}
\usepackage{alphabeta}
\usepackage{amsmath}

\begin{document}
\section{Άσκηση νευρωνικού δικτύου}
Έστω ενα νευρωνικό δίκτυο με μία είσοδο $x$, ένα νευρώνα και μία έξοδο
$y$. Η συνάρτηση ενεργοποιήσης είναι η σιγμοειδής:
\begin{equation}
	\sigma(z)=\frac{1}{1+e^{-z}}
\end{equation}
Η έξοδος του νευρώνα είναι:
\begin{equation}
	y=\sigma(wx+b)
\end{equation}
όπου $w$ είναι το βάρος και $b$ είναι η πόλωση. Δίνονται τα δεδομένα εκπαίδευσης του δικτύου:
\begin{center}
\begin{tabular}{|c|c|}
\hline
	$x$ & $y$ \\
\hline
	1 & 1 \\
\hline
	0 & 0 \\
\hline
\end{tabular}
\end{center}
Να βρεθούν οι τιμές τως $w$ και $b$ που ελαχιστοποιούν το τετραγωνικό σφάλμα:
\begin{equation}
	E=\frac{1}{2} \sum_{i=1}^2 (y_i-hat{y}_i)^2
\end{equation}
\section*{Λύση}
Αρχικά υπολογίζουμε την έξοδο του δικτύου για κάθε δεδομένο εκπαίδευσης:
\begin{itemize}
	\item Για $x=1$ : $\hat{y}_1=\sigma(w+b)$
	\item για $x=0$ : $\hat{y}_2=\sigma(b)$
\end{itemize}
Στην συνέχεια υπολογίζουμε το τετραγωνικό σφάλμα:
\begin{equation}
	E=\frac{1}{2} \left[1 -sigma(w+b)^2 +
	(0 - \sigma(b))^2\right]
\end{equation}
Για  να ελαχιστοποιήσουμε το σφάλμα παίρνουμε τις μερικές παραγώγους του $E$ προς $w$ κ $b$ και τις
θέτουμε ίσες με μηδέν
\begin{equation}
	\frac{\partial E}{\partial w}=0, \quad
	\frac{\partial E}{\partial b}=0
\end{equation} 
Η επίλυση του συστήματος αυτού δίνει τις τιμές $w$ και $b$ που ελαχιστοποιούν το σφάλμα.
\end{document}

