lunes, 2 de junio de 2014

LA ÚLTIMA ENTRADA

Bueno, ésta es mi última publicación en este blog, y si no lo vieron antes de junio de éste año, se han perdido la oportunidad de verlo alguna vez. En ésta ocación ya no les voy a hablar de geometría, si no de estadística :(.

Historia de la estadística y de la probabilidad

El uso de los métodos estadísticos se remonta al menos al siglo 5.º AC. El historiador Tucídides en su Historia de la Guerra del Peloponeso describe como los atenienses calculaban la altura de la muralla de Platea, contando el número de ladrillos de una sección expuesta de la muralla que estuviera lo suficientemente cerca como para contarlos. El conteo era repetido varias veces por diferentes soldados. El valor más frecuente (la moda en términos más modernos) era tomado como el valor del número de ladrillos más probable. Multiplicando este valor por la altura de los ladrillos usados en la muralla les permitía a los atenienses determinar la altura de las escaleras necesarias para trepar las murallas.
En el poema épico Indio – el Mahábharata(Libro 3: la historia de Nala) – el rey Rtupama estimaba el número de frutas y hojas(2095 frutas y 50,00,000 hojas (5 crores)) en dos grandes hojas de un árbol Vibhitaka contándolos en un solo vástago. Este número era luego multiplicado por el número de vástagos en las ramas. Este estimado fue posteriormente verificado y se halló que estaba muy cerca del número verdadero. Con el conocimiento de este método Nala pudo subsecuentemente reconquistar su reino.
El primer escrito de estadística fue encontrado en un libro o del siglo 9 DC titulado “Manuscrito sobre el Descifrado de Mensajes Criptográficos”, escrito por Al-Kindi( 801 - 873 DC). En su libro, Al-Kindi da una descripción detallada sobre el uso de las estadísticas y análisis de frecuencias en el descifrado de mensajes, este fue el nacimiento tanto de la estadística como del criptoanálisis.
La Prueba del Pyx es una prueba de pureza de la moneda del Royal Mint, que ha sido llevada a cabo regularmente desde el siglo 12. La Prueba en sí misma está basada en métodos de muestreo estadístico. Después de acuñar una serie de monedas – originalmente de 10 libras de plata- una moneda singular era colocada en el Pyx- una caja en la Abadía de Westminster. Después de un tiempo –ahora una vez al año- las monedas son retiradas y pesadas. Luego, una muestra de monedas retiradas de la caja es probada por pureza
La Nuova Crónica, una historia de Florencia del siglo 14 escrita por el banquero florentino y oficial Giovanni Villani, incluye mucha información estadística.sobre la población, ordenanzas, comercio, educación y edificaciones religiosas, y ha sido descrito como la primera introducción de la estadística como elemento positivo en la historia, aunque ni el término ni el concepto de la estadística como campo específico existía aún. Esto se demostró que era incorrecto después del hallazgo del libro de Al-Kindi sobre análisis de frecuencias.
Aunque era un concepto conocido por los griegos, la media aritmética no fue generalizada a más de dos valores hasta el siglo 16. La invención del sistema decimal por Simon Stevin en 1585 parece haber facilitado estos cálculos. Este método fue adoptado por primera vez en astronomía por Tycho Brahe, el que intentaba reducir errores en sus estimados de las localizaciones de varios cuerpos celestiales.
La idea de la mediana se originó en el libro de navegación de Edward Wright (Certaine Errors in Navigation) en 1599 en una sección concerniente a la determinación de una localización con un compás. Wright sintió que este valor era el que más probablemente estuviera correcto en una serie de observaciones.
John Graunt en su libro Natural and Political Observations Made upon the Bills of Mortality, estimó la población de Londres en 1662 a través de registros parroquiales. El sabía que había cerca de 13,000 funerales al año en Londres y que de cada once familias tres personas morían por año. El estimo de los registros parroquiales que el tamaño promedio de las familias era 8 y calculó que la población de Londres era de cerca de 384,000. Laplace en 1802 estimó la población de Francia con un método similar.
Los métodos matemáticos de la estadística surgieron de la teoría de probabilidades, la cual tiene sus raíces en la correspondencia entre Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) proveyó el primer tratamiento científico sobre el tema que se conozca hasta la fecha. El libro Ars Conjectandi de Jakob Bernoulli (póstumo 1713) y La Doctrina de las Probabilidades (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. En su libro, Bernoulli introdujo la idea de representar certeza completa como el número 1 y la probabilidad como un número entre cero y uno.
Galileo luchó contra el problema de errores en las observaciones y había formulado ambiguamente el principio de que los valores más probables de cantidades desconocidas serían aquellos que hicieran los errores en las ecuaciones razonablemente pequeños. El estudio formal en teoría de errores puede ser originado en el libro de Roger Cotes (Opera Miscellanea, póstumo 1750). Tobias Mayer, en su estudio de los movimientos de la Luna (Kosmographische Nachrichten, Nuremberg, 1750), inventó el primer método formal para estimar cantidades desconocidas generalizando el promedio de las observaciones bajo circunstancias idénticas al promedio de los grupos de ecuaciones similares.
Un primer ejemplo de lo que posteriormente fue conocido como la curva normal fue estudiado por Abraham de Moivre, quien trazó esta curva en Noviembre 12, 1733. De Moivre estaba estudiando el número de caras que ocurrían cuando una moneda “justa” era lanzada. En sus memorias – Un intento por mostrar la emergente ventaja de tomar la media de un número de observaciones en astronomía práctica- preparada por Thomas Simpson en 1755 (impreso en 1756) aplicaba por primera vez la teoría a la discusión de errores en observaciones. La reimpresión (1757) de sus memorias sostiene el axioma que errores positivos y negativos son igualmente probables, y que hay ciertos valores límites dentro de los cuales todos los errores se encuentran; los errores continuos son discutidos y se provee una curva de probabilidad. Simpson discutió varias posibles distribuciones de error. Primero consideró la distribución uniforme y después la distribución triangular discreta simétrica, seguida por la distribución triangular contínua simétrica.
Ruder Boškovic en 1755 se basó en su trabajo sobre la forma de la Tierra propuesto en el libro De Litteraria expeditione per pontificiam ditionem ad dimetiendos duos meridiani gradus a PP. Maire et Boscovicli para proponer que el veradero valor de una serie de observaciones sería aquel que minimizara la suma de los errores absolutos. En terminología moderna este valor es la media.
Johann Heinrich Lamber en su libro de 1765 Anlage zur Architectonic propuso el semicírculo como una distribución de errores:

 f(x) = \frac{ 1 }{ 2 } \sqrt{ ( 1 - x^2 ) }
con -1 = x = 1. Pierre-Simon Laplace (1774) hizo su primer intento de deducir una regla para la combinación de observaciones desde los principios de la teoría de las probabilidades. El representó la ley de a probabilidad de errores mediante una curva y dedujo una fórmula para la media de tres observaciones.
Laplace en 1774 notó que la frecuencia de un error podía ser expresada como una función exponencial de su magnitud una vez descartado el signo. Esta distribución es ahora conocida como distribución de Laplace.
Lagrange propuso una distribución parabólica de errores en 1776:

 f(x) = \frac{ 3 }{ 4 } ( 1 - x^2 )
con -1 = x = 1.
Laplace en 1778 publicó su segunda ley de errores en la cual notó que la frecuencia de un error era proporcional a la función exponencial del cuadrado de su magnitud. Esto fue descubierto subsecuentemente por Gauss (posiblemente en 1797) y es ahora mejor conocida como distribución normal, la cual es de importancia central en la estadística. Esta distribución fue referida como normal por primera vez por Pierce en 1873, quien estaba estudiando las medidas de error cuando un objeto era dejado caer sobre una superficie de madera. Escogió el término normal debido a su ocurrencia frecuente en variables que ocurrían en la naturaleza.
Lagrange también sugirió en 1781 otras dos distribuciones para errores – una distribución coseno: -

 f(x) = \frac{ \pi }{ 4 } cos( \frac{ \pi x }{ 2 } )
con -1 = x = 1 y una distribución logarítmica

 f(x) = \frac{ 1 }{ 2 } \frac{ 1 }{ | x | }
con -1 = x = 1 donde || es el --valor absoluto-- de x.
Laplace obtuvo una formula (1781) para la ley de facilidad de un error (un término acuñado por Joseph Louis Lagrange, 1774 ), pero esta conllevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.
Laplace, en una investigación del movimiento de Saturno y Júpiter en 1787, generalizó el método de Mayer usando diferentes combinaciones lineales de un grupo de ecuaciones.
En 1802 Laplace estimó la población en Francia a 28,328,612. El calculó este número usando la cantidad de nacimientos del año anterior y el dato del censo de tres comunidades. Los datos de los censos de estas comunidades mostraron que tenían 2,037,615 personas y que el número de nacimientos era de 71,866. Asumiendo que estas muestras eran representativas de Francia, Laplace produjo un estimado para la población entera.
El método de los mínimos cuadrados, el cual era usado para minimizar errores en la medición de datos, fue publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss(1809).Gauss había usado el método en s famosa predicción en 1801 de la localización del planeta enano Ceres. Las observaciones en las que Gauss basó sus cálculos fueron hechas por el monje italiano Piazzi. Posteriormente se dieron demostraciones por Laplace (1810, 1812), Gauss (1823), Ivory (1825, 1826), Hagen (1837), Bessel (1838), Donkin (1844, 1856), Herschel (1850), Crofton (1870), y Thiele (1880, 1889).
El término error probable (der wahrscheinliche Fehler) – la desviación media – fue introducido en 1815 por el astrónomo alemán Frederik Wilhelm Bessel.
Antoine Augustin Cournot en 1843 fue el primero en usar el término mediana (valeur médiane) para el valor que divide la distribución de probabilidad en dos mitades iguales.
Otros contribuyentes a la teoría de errores fueron Ellis (1844), De Morgan (1864), Glaisher (1872), y Giovanni Schiaparelli(1875). La formula de Peters (1856) para r, el "error probable" de una sola observación fue ampliamente usada e inspiró tempranamente la estadística robusta (resistente a valores atípicos).
En el siglo 19 los autores de la teoría estadística incluían a included Laplace, S. Lacroix (1816), Littrow (1833), Dedekind (1860), Helmert (1872), Laurant (1873), Liagre, Didion, De Morgan, Boole, Edgeworth, and K. Pearson. y K. Pearson.
Gustav Theodor Fechner usó la mediana (Centralwerth) en fenómenos sociológicos y sociológicos. Anteriormente había sido usado solamente en astronomía y campos relacionados.
Las primeras pruebas de la distribución normal fueron inventadas por el estadístico alemán Wilhelm Lexis en 1870. El único conjunto de datos disponible para él, en que le era posible mostrar que estaba normalmente distribuido, era la frecuencia de nacimientos.
Francis Galton estudió una variedad de características humanas – altura, edad, peso, tamaño d las pestañas, entre otras- y encontró que michos de estos factores podían ser ajustados a una distribución normal.
Francis Galton en 1907 entregó un artículo a la revista Nature acerca de la utilidad de la mediana. El examinó la precisión de 787 intentos de adivinar el peso de un buey en una feria de campo. El peso real era de 1208: la mediana de todas las conjeturas fue 1198 libras. Las conjeturas fuern marcadamente no normales en su distribución.
El noruego Anders Nicolai Kiær introdujo el concepto de muestreo estratificado en 1895. Arthur Lyon Bowley introdujo el muestreo aleatorio en 1906. [20] Jerzy Neyman en 1934 hizo evidente que el muestreo aleatorio estratificado era en general un mejor método de estimación que el muestreo intencional (por cuota).
El nivel de significación del 5% parece ser introducido por Fisher en 1925. Fisher expresó que las desviaciones que excedían dos veces la desviación estándar eran consideradas significativas. Previamente a esto las desviaciones que excedían tres veces el error probable eran consideradas significativas. Para una distribución simétrica el error probable la mitad del rango intercuantil. El cuantil superior de la distribución normal estándar está entre 0.66 y 0.67, su error probable es aproximadamente 2/3 de la desviación estándar. Parece que el criterio de Fisher del 5% tenía sus raíces en la práctica previa.
En 1929 Wilso y Hilferty re-examinaron los datos de Pierce de 1873 y descubrieron que en realidad no estaba realmente normalmente distribuida.


MEDIDAS DE TENDENCIA CENTRAL
 Al describir grupos de observaciones, con frecuencia es conveniente resumir la información con un solo número. Este número que, para tal fin, suele situarse hacia el centro de la distribución de datos se denomina medida o parámetro de tendencia central o de centralización. Entre éstas se encuentran la media aritmética (también conocida como promedio o simplemente media), la mediana y la moda. 

 Media aritmética
  
En un conjunto finito de datos cuantitativos, la media aritmética (también conocida como promedio o simplemente media) es el valor característico de ese conjunto. Se obtiene al sumar todos los datos y dividirlos entre el número de datos.Se representa con una x con una barra sobre ésta.

 Mediana

La mediana representa el valor de la variable de posición central en un conjunto de datos ordenados.

Cómo calcularla:

Cuándo n es el número de datos:

a) Si n es impar, la mediana es el valor que ocupa la posición
 (n+1)/2 
una vez que los datos han sido ordenados (en orden creciente o decreciente), porque éste es el valor central. Es decir: M_e=x_{(n+1)/2}.
Por ejemplo, si tenemos 5 datos, que ordenados son:
 x_1 = 3, x_2 = 6, x_3 = 7, x_4 = 8, x_5 = 9 => 
El valor central es el tercero:
 x_{(5+1)/2} = x_3 = 7 
Este valor, que es la mediana de ese conjunto de datos, deja dos datos por debajo (x_1, x_2) y otros dos por encima de él (x_4, x_5).

b) Si n es par, la mediana es la media aritmética de los dos valores centrales. Cuando n es par, los dos datos que están en el centro de la muestra ocupan las posiciones n/2 y n/2+1. Es decir:
M_e = (x_{\frac{n}{2}} + x_{{\frac{n}{2}}+1})/2.
Por ejemplo, si tenemos 6 datos, que ordenados son: x_1 = 3, x_2 = 6, x_3 = 7, x_4 = 8, x_5 = 9, x_6 = 10 => Hay dos valores que están por debajo del x_{\frac {6} {2}} = x_3 = 7 y otros dos que quedan por encima del siguiente dato x_{{\frac {6} {2}}+1} = x_4 = 8. Por tanto, la mediana de este grupo de datos es la media aritmética de estos dos datos: M_e = \frac {x_3 + x_4}{2} = \frac {7 + 8} {2}=7,5.

 Moda

 Es el valor con mayor frecuencia en un conjunto de datos.
  

Medidas de dispersión

Las medidas de dispersión,,también llamadas medidas de variabilidad, muestran la variabilidad de una distribución, indicando por medio de un número, si las diferentes puntuaciones de una variable están muy alejadas de la media. Cuánto mayor sea ese valor, mayor será la variabilidad, cuanto menor sea, más homogénea será a la media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos.

Rango medio

El rango medio de un conjunto de valores numéricos 
X = \{x_1,\dots, x_n\} 
es la media del menor y mayor valor, o la mitad del camino entre el dato de menor valor y el dato de mayor valor.

Varianza
La varianza mide la dispersión de los valores con respecto al valor central.
S_X^2 = \frac{\sum_{i=1}^n (X_i - \bar{X})^2}{n-1} 
Desviación estándar 
Se le conoce como desviación estándar a la raíz cuadrada (positiva) de la varianza
S = \sqrt{\frac{\sum_{i=1}^n (x_i - \bar{x})^2}{n}} 

Principios de la probabilidad simple y conjunta

Probabilidad simple

Es la probabilidad de que ocurra algún evento predeterminado, como la probabilidad de obtener una pelota amarilla en una caja con pelotas de distintos colores. Para obtener el resultado, se debe dividir la cantidad de formas en que un suceso específico va a suceder, entre la cantidad total de sucesos.

Probabilidad conjunta

 Es la probabilidad de ocurrencia de dos o más eventos.

 VIVA EL ROCK!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
  

martes, 8 de abril de 2014

Matemáticas III



Funciones trigonométricas

Las funciones trigonométricas son relaciones que existen entre los ángulos de un triángulo rectángulo, y sus lados (los dos catetos y la hipotenusa). También existen relaciones entre las mismas funciones, a éstas se les conoce como identidades trigonométricas.
Existen 6 funciones trigonométricas: seno (Sen), coseno (Cos), tangente (Tan), cotangente (Cot), secante (Sec) y cosecante (Csc). Estas son en relación a un arco (en radianes o ángulos).

En el triángulo anterior, se han marcado los tres lados y los tres ángulos, y el lado a es opuesto al ángulo A, b es opuesto al ángulo B, y c (la hipotenusa) es opuesto al ángulo C. 
Entonces:

Seno (del arco) A:  a                  Coseno A: b                   Tangente A : a
                            c                                 c                                       b     

Cotangente A:  b                        Secante A: c                   Cosecante A:  c
                      a                                         b                                         a

Conociendo esto, se pueden conocer las medidas de los lados , conociendo el valor de un lado y un ángulo (suponiendo que el triángulo es rectángulo) 

Para conocer la hipotenusa:

Sen A=  a        c=     a       
            c             Sen A
Para conocer el cateto opuesto:

Sen A= a         a= c (Sen A)
           c 

Para conocer el cateto adyacente:

Cos A= b          b=c (Cos A)
            c

También se puede conocer el valor del ángulo:

Tan A= a       Tan-1 (a)= A
           b                  b

Cabe destacar que los valores del seno y del coseno no pueden ser mayores que 1 o -1, mientras que el valor de la tangente puede ir desde -1 (Tan 270) hasta 1  (Tan 90)
                                                   0                        0

Esto se puede demostrar de la siguiente manera: 

Debido a la imposibilidad de crear un triángulo rectángulo con un ángulo mayor a 90o, se utiliza lo que se conoce como circunferencia unitaria, la cual es una circunferencia cuyo centro esta en el origen de las coordenadas del plano cartesiano. Entonces se definirán las funciones seno y coseno como la absicsa y la ordenada. Si el valor del radio es 1, entonces ni el seno ni el coseno podrán ser mayores a este valor (pues el valor de estos no depende de las medidas de los lados, si no del arco). Entonces las funciones trigonométricas de cualquier ángulo mayor a 90o serán las mismas que la de ángulos simétricos, pero con signo dependiente del lado en el que se encuentren con relación al plano cartesiano

El siguiente dibujo puede ayudar a entender lo anterior:

Fuente: http://es.wikipedia.org/wiki/Funci%C3%B3n_trigonom%C3%A9trica

Ahora, la explicación a que la tangente de 90 sea infinita es: 


Para el ángulo A, el valor de Tan A= bc

Ahora, si el ángulo vale 90o:


La hipotenusa se vuelve paralela a la tangente, por lo cual nunca se van a tocar, así que se considera infinita.
Los valores de senos, cosenos, tangentes, cotangentes, secantes y cosecantes se pueden graficar de la siguiente manera:
Fuente: http://es.wikipedia.org/wiki/Funci%C3%B3n_trigonom%C3%A9trica


Ley de Senos:

   b   =   a     =   c     
Sen B  Sen A   Sen C

Demostración:


Si ABC es un triángulo cualquiera, La, Lb y Lc las alturas respectivas de a, b y c, entoncs:

2 área (ABC)= c (Lc)

Pero Lc= Sen A
        b

y se deduce que

Lc= Sen A (b)      entonces   2 área de (ABC)= c (Sen A*b)

Se puede hacer el mismo procedimiento para a (La) y b (Lb)

y nos queda que

Sen A*b*c= a*Sen B*c= a*b*Sen C

y entonces

   b   =   a     =   c     
Sen B  Sen A   Sen C

queda demostrada la Ley de Senos

Identidades trigonométricas

Las relaciones que existen entre las funciones trigonométricas se conocen como identidades trigonométricas. Algunas de las básicas se fundamentan con el teorema de Pitágoras:

Cos2 A+Sen2 A = 1

Tan2 A+ Cot2 A= 1

De estas identidades se pueden derivar una gran cantidad de relaciones entre las funciones trigonometricas :) 









Larga vida al ROCK!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!




jueves, 13 de marzo de 2014

Bloque 10

Hey, qué onda?
Pues aquí estoy otra vez, un chico de preparatoria, frustrado por que tiene que publicar que en éste blog, que en su escuela le enseñan matemáticas de primaria. Y lo peor es que muchos de sus compañeros ni siquiera eso entienden, por culpa de que siempre les han dado una pésima educación >:(. Pero ni modo.

Bueno, se supone que tengo que registrar los contenidos de los bloques 4-5, pero como me sacaron en varias clases, pues el maestro nos trata como niños de preescolar (si no tenemos el material vamos para afuera), y en las otras francamente no quise desperdiciar mi tiempo prestando atención, pues lo que voy a escribir no será de mi aprendizaje en clase, si no de mis conocimientos previos e investigaciones (pondré sólo lo que entienda, así que no habrá Ctrl+v). Lo curioso es que, pese a que no haya puesto ningún empeño en la clase de matemáticas durante el mes, el sistema de competencias me permite pasar con un 7.5 con sólo cumplir algunos trabajos, "hechos por hacer". 

Primero debo empezar por "describir la clasificación de los polígonos" (trabajo de primaria):
Bueno, existen muchas formas de clasificar a los polígonos. Una muy sencilla es según el número de lados que tenga.

Triángulo: figura delimitada por 3 lados

Ejemplo:

Cuadrilátero: es toda aquella figura delimitada por cuatro lados.

Ejemplo:

Pentágono: figura delimitada por 5 lados.

Ejemplo:
A partir del pentágono, cada nueva figura se nombra con el número de lados que tenga, escrito en griego,como penta, hexa, hepta, octa, etc. más la terminación ágono.

Otra forma de clasificar a los polígonos es según la medida de sus lados. Si todos sus lados tienen la misma medida, se les llama "regulares", y si no se les llama "irregulares".

El ejemplo anterior corresponde a un octágono irregular, y el siguiente a uno regular:
Otra forma de clasificar a los polígonos es si éstos son cóncavos o convexos: 
  • Un polígono cóncavo es aquel en el que existen 2 puntos tal que el segmento que los une no está enteramente contenido en el polígono.
El anterior ejemplo corresponde a un decágono irregular cóncavo.
El ejemplo anterior corresponde a un decágono irregular cóncavo.

  • Un polígono es convexo si cualesquiera dos puntos en él están completamente contenidos en él:
El anterior ejemplo corresponde a un decágono regular convexo.

Dadas las anteriores clasificacioones de polígonos, el siguiente punto es explicar una fórmula para encontrar la suma de los ángulos internos.

Vamos, primero hay que demostrar la relación que existe entre los ángulos dentro de un triángulo:


 Si ABC es un triángulo cualquiera, y trazamos una recta paralela a BC que pase por el punto A, entonces, según el teorema de Tales, tendremos que
el ángulo BCA=YAC, y el ángulo CBA=BAX. Entonces, nos damos cuenta de que la suma de los ángulos internos del triángulo=180o.

Ahora, podemos dar la fórmula para calcular la suma de los ángulos internos de cualquier polígono convexo:

Sumatoria (ángulos internos)= n(180o)-360

Donde:

n= número de lados del polígono.

Explicación:

Si situamos un punto que quede "centrado" dentro del polígono y trazamos una línea que una al vértice con dicho punto , quedará una figura como la siguiente:


Como sabemos, la suma de los ángulos internos del triángulo es 180, así que al sumar n 180, se obtiene la suma de todos los angulos internos de los triangulos formados, pero en el centro se "forma" un círculo:

Entonces, debemos restarle 360o a la multiplicación antes hecha, de esta manera tendremos la suma de los ángulos internos de cualquier polígono convexo.
En el caso anterior, por ejemplo, en el que tenemos un hexágono irregular, hacemos las respectivas operaciones:

6 (180) -360= 720

Así, la suma de los ángulos internos de cualquier hexágono será 720 grados.

Bien, ahora tengo que decirles cómo calcular el área de cualquier polígono regular.
La fórmula es:

A=(P)a
        2

Donde:
P= perímetro
a=apotema

Esto se demuestra de la siguiente manera:

Esta imagen tiene la misma área que la siguiente:

Si calculamos su área según la fórmula anterior, tendremos la correspondiente a un rectángulo , con el doble de área que esta figura, así que tendremos que dividirla /2
Por ejemplo, si el cuadrado midiera de lado 6, su apotema mediría 3, y tendríamos que:
A= 24(3)= 72/2= 36
          2
Podemos comprobarlo según la fórmula para el área del cuadrado: A=l*l, sustituyéndo sería A= 6*6=36

Lo que sigue en mi lista de cosas que tengo que escribir aquí es: "lugares geométricos relacionados con la circunferencia". En un polígono regular, una circunferencia inscrita toca el centro de cada lado de dicho polígono, si el polígono está inscrito en la circunferencia, sus vértices tocan a ésta. Entonces, estos puntos serán los centros de las aristas, y los vértices.


Ahora, lo siguiente es mostrar teoremas sobre ángulos dentro, sobre y fuera de la circunferencia:



Si los puntos A, B, C, E están sobre la circunferencia y D es el punto medio de esta, entonces el ángulo ADC será el doble que el ángulo ::)).
Demostración:
Al trazar el diámetro que pasa por los puntos C y D, los ángulos ::)) y ADB se dividen, y se forman dos triángulos isóceles: ADC y CDB. 
Entonces tenemos que: 
ángulo ACD= ::
ángulo DCB= ))
Como la suma de los ángulos de un triángulo= 180 grados, entonces el ángulo ADE= 2(::) y EDB= 2())).

Si:

ACB= ::+))   y    ADB= 2(::)+2()))

entonces: ACB=ADB
                            2

Pero existe otra clase de ángulos sobre la circunferencia:


Si los puntos A, B,C,D estan sobre la circunferencia, el segmento DC es el diámetro y queremos calcular el valor del ángulo ADB, y O es el centro del círculo (no está marcado aquí) entonces:

ángulo ADC= ángulo AOC= arco AC
                                    2                2

ángulo BDC= ángulo BOC= arco BC
                                    2                2
arco AB= arco AC- arco BC
          2              2             2

Ahora, podemos calcular otros ángulos, en posiciones distintas a las anteriores:


Si A, B, C, D son puntos sobre la circunferencia, O el punto de intersección entre los segmentos AC y DB, y queremos calcular el ángulo AB, entonces:

ángulo AOB + ángulo COB = 180 grados

ángulo OCB+ ángulo COB + ángulo CBO=180

Entonces ángulo AOB= ángulo ACB + ángulo DBC= arco AB + ángulo DC
                                                                                                 2
Existen 10 personas, las que entienden el sistema binario y las que no 
VIVA EL ROCK!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!