Musica


MusicPlaylistRingtones
Create a playlist at MixPod.com

jueves, 24 de junio de 2010

Razonamiento Logico

Razonamiento lógico
¿Por qué escogiste esta carrera?

Por qué me interesan mucho las computadoras se me hacen una herramienta muy útil hoy en día para nosotros y la pondremos en practica mucho en el futuro.

¿Qué entiendes por desarrollo?
Una función que dice poco a poco los pasos que se llevaran acabó para un aprendizaje y experiencia.

Que es un programa informático?
Es simplemente un conjunto de instrucciones para una computadora, las computadoras necesitan de los programas para funcionar y un programa no hace nada a menos que sus instrucciones sean ejecutadas por el procesador.

Que es una Computadora?
También conocido como ordenador o computador es una maquina eléctrica que se describe y procesa datos para convertirlos en la información útil. Una computadora es una colección de circuitos integrados, y otros componentes relacionados que se pueden ejecutar con exactitud

que es Software?
Se refiere al equipamiento lógico o soporte lógico de una computadora digital y comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica.

Que es Hardware?
Corresponde a todas las partes físicas y es tangibles de una computadora sus componentes faltantes eléctricos electromecánicos y mecánicos; sus cables, gabinetes, cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado.




Significados de las palabras

Lógica matemática: Consiste en el estudio matemático de la lógica y en la aplicación de este estudio a otras áreas de las matemáticas.

Programación Lógica: Consiste en la aplicación del compus de conocimiento sobre la lógica para el diseño de lenguajes de programación, no debe confundirse con la disciplina de la lógica.

Algebra de Boole: En la informática y matemática, es una estructura algebraica que rigorizan las operaciones lógicas. Así como el conjunto de operaciones unión, intersección y completo.

Lógica Formal: Se dedica al estudio de los razonamientos correctos. Desarrollándolos de manera formal y esquematizada es decir de una manera no cotidiana

Bit: Es un digito del sistema de Numeración binario.

Lógica Proporcisional: Es un sistema formal diseñado para analizar ciertos tipos de argumentos.

Sintaxis; Es la parte de la dramática que estudia las reglas que gobiernan la combinatoria de constituyente sintácticos y la formación de unidades superiores.

Semántica; Se refiere a los aspectos del significado de un determinado o interpretación del significado de un determinado elemento símbolo, palabra, expresión o representación formal.

Código fuente
Son instrucciones que un programa puede salir para poder ejecutar el programa para un mejor funcionamiento, tiene un lenguaje para poderlo ejecutar en la computadora

Razonamiento Lógico
Pueden ser validos o no validos, nos permiten aplicar el conocimiento o aportar razones a favor de lo que conocemos


Lenguaje De Alto Nivel
Lo que lleva una instrucción y una secuencia en el programador

Lenguajes De Bajo Nivel
Desea estructurar algo mas ordenado para que el programa se pueda ejecutar.Variable;Desea cambiar el contenido que extrae la base de datos o el contenido que tiene el programador

Constante
Es la importancia que no puede modificarse al menos que en el contexto eta previsto en el programador.


Jerarquía de operadores:

Para resolver una expresión aritmética hay una serie de reglas que se deben seguir

1-Se resuelve las expresiones que se encuentran entre parénesis ()

2-Se aplica la jerarquía de operadores (potencia, Multiplicación, División, Suma, Resta).

3-Al evaluar una expresión si hay dos operadores con la misma jerarquía se evalúa de izquierda a derecha.

4-Si hay expresiones relacionales, se resuelve primero paréntesis (), luego se encuentran los valores y por ultimo se aplica la jerarquía de operadores. En el caso de ser igual la jerarquía procedes de izquierda a derecha.
┐Not (Niega todo)

Ejemplos:

1)Júpiter es un planeta
Júpiter no es un planeta
2)El pizarrón es verde
El pizarrón no es verde
3)Algún elefante es de color rosa
Ningún elefante es de color rosa
4)Todos los leones son feroces
Algún león no es feroz

5) El agua se tiro del balde porque no le cerraron a la llave.
p <-> ┐q
Conexiones lógicas binarias

Conjunción
dos preposiciones que se elevan como p y q
p^q and

Disyunción
con que alguna proposición se cumpla se cumple la combinación
pvq or

Condicional
si p entonces q
p->q if

Bicondicional
p si solo q
p<->q if the

Ejemplo
La niña fue al parque con María que vivía muy lejos de ahí.
p ^ q
El se quedo dormido por que estaba muy cansado.
p <-> q
El niño estudia en la casa de su amiga porque ella no fue a la escuela.
p V q
Ser pobre es ser feliz,
p -> q
Proposiciones o expresiones de lenguaje

Lógicas (evaluables)
Abiertas (las variables cambian)
Indeterminadas (no pueden ser variables, mi evaluables)

Ejemplos:

1) 3>5= Lógica

2) X+2-1= Indeterminada

3) Los elefantes vuelan=Lógica

4) Esto es una mentira= Indeterminada

5) El 8 de mayo de 1910 fue lunes=Lógica

6) A+B+C=D= Abierta

Conceptos Basicos

Conceptos básicos
El ábaco
El ábaco fue la primera máquina conocida que ayudaba a ejecuta computaciones matemáticas. Se piensa que se originó entre 600 y 500 a.C., o en China o Egipto. Pelotas redondas, usualmente de madera, se resbalaban de un lado a otro en varas puestas o alambres, ejecutaban suma y substracción. Como una indicación de su potencial, se usa el ábaco todavía en muchas culturas orientales hoy en día.
Napier Bones
Justo antes de morir en 1617, el matemático escocés John Napier (mejor conocido por su invención de logaritmos) desarrolló un juego de palitos para calcular a las que llamó "Napier Bones." Así llamados porque se tallaron las ramitas de hueso o marfil, los "bones" incorporaron el sistema logarítmico. Los Huesos de Napier tuvieron una influencia fuerte en el desarrollo de la regla deslizante (cinco años más tarde) y máquinas calculadoras subsecuentes que contaron con logaritmos.
Regla deslizante
En 1621 la primera regla deslizante fue inventada por el del matemático inglés William Oughtred. La regla deslizante (llamó "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Uno de los primeros aparatos de la informática analógica, la regla deslizante se usó normalmente (en un orden lineal) hasta que a comienzos de 1970, cuando calculadoras portátiles comenzaron a ser más popular.
Calculadora mecánica
En 1623 la primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamado "El Reloj Calculador", la máquina incorporó los logaritmos de Napier, hacia rodar cilindros en un alberguegrande. Se comisionó un Reloj Calculador para Johannes Kepler, el matemático famoso, pero fue destruido por fuego antes de que se terminara.
Pascalina
En 1642 la primera calculadora automática mecánica fue inventada por el matemático francés y filósofo Blaise Pascal. Llamado la "Pascalina", el aparato podía multiplicar y substraer, utilizando un sistema de cambios para pasar dígitos. Se desarrolló la máquina originalmente para simplificar al padre de Pascal para la recolección del impuesto. Aunque el Pascaline nunca fue un éxito comercial como Pascal había esperado, el principio de los cambios era fue útil en generaciones subsecuentes de calculadoras mecánicas.
La máquina de multiplicar
En 1666 la primera máquina de multiplicar se inventó por Sir Samuel Morland, entonces Amo de mecánicas a la corte de Rey Charles II deInglaterra. El aparato constó de una serie de ruedas, cada representaba, dieses, cientos, etc. Un alfiler del acero movía los diales para ejecutar las calculaciones. A diferencia de la Pascalina, el aparato no tenía avanzó automático de en columnas.
Máquina calculadora
La primera calculadora de propósito general fue inventada por el matemático alemán Gottfried Von Leibniz en 1673. El aparato era una partida de la Pascalina, mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de engranaje. Aunque el aparato podía ejecutar multiplicación y división, padeció de problemas de fiabilidad que disminuyeron su utilidad.
El jugador de ajedrez automático
En 1769 el Jugador de Ajedrez Autómata fue inventado por Barón Empellen, un noble húngaro. El aparato y sus secretos se le dieron a Johann Nepomuk Maelzel, un inventor de instrumentos musicales, quien recorrió Europa y los Estados Unidos con el aparato, a finales de 1700 y temprano 1800. Pretendió ser una máquina pura, el Autómata incluía un jugador de ajedrez "robótico". El Automatón era una sensación dondequiera que iba, pero muchas comentaristas, incluso el Edgar Allen Poe famoso, ha escrito críticas detalladas diciendo que ese era una "máquina pura." En cambio, generalmente, siempre se creyó que el aparato fue operado por un humano oculto en el armario debajo del tablero de ajedrez. El Autómata se destruyó en un incendio en 1856.
La máquina lógica
Se inventó la primera máquina lógica en 1777 por Charles Mahon, el Conde de Stanhope. El "demostrador lógico" era un aparato tamaño bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas.
Jacquard Loom
El "Jacquard Loom" se inventó en 1804 por Joseph-Marie Jacquard. Inspirado por instrumentos musicales que se programaban usando papel agujereados, la máquina se parecía a una atadura del telar que podría controlar automáticamente de dibujos usando una línea tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba formar la base de muchos aparatos de la informática e idiomas de la programación.
Calculadoras de producción masiva
La primera calculadora de producción masiva se distribuyó, empezando en 1820, por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro Parisienses, el "aritmómetro" de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862.
Artefacto de la diferencia
En 1822 Charles Babbage completó su "Artefacto de la Diferencia," una máquina que se puede usar para ejecutar calculaciones de tablas simples. El Artefacto de la Diferencia era una asamblea compleja de ruedas, engranajes, y remaches. Fue la fundación para Babbage diseñar su "Artefacto Analítico," un aparato del propósito genera que era capaz de ejecutar cualquiera tipo de calculación matemática. Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de computaciones que ahora se consideran al corazón de informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora modernadigital que estaba a seguir. Se construyó el artefacto analítico finalmente por un equipo de ingenieros en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento Babbage hoy se sabe como el "Padre de Computadoras Modernas".
1823 - 1936
Durante este tiempo, muchas de las culturas del mundo fueron avanzando desde sociedades basadas en la agricultura a sociedades basadas industrialmente. Con estos cambios vinieron los avances matemáticos y en ingeniería los cuales hicieron posible máquinas electrónicas que pueden resolver argumentos lógicos complejos. Comenzando con la publicación de Boolean Algebra de George Boole y terminando con la fabricación del modelo de la Máquina de Turín para máquinas lógicas, este período fue muy próspero para computadoras.
En esta etapa se inventaron las siguientes:
Algebra de Boole
En 1854 el desarrollo del Algebra de Boolean fue publicado por el lógico Inglés George S. Boole. El sistema de Boole redujo argumentos lógicos a permutaciones de tres operadores básicos algebraicos: "y", "o", y "'no". A causa del desarrollo de el Algebra de Boolean, Boole es considerado por muchos ser el padre de teoría de la información.
Máquina lógica de Boolean
En 1869 la primera máquina de la lógica a usar el Algebra de Boolean para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el Piano Lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismos complicados.
Calculadora guiada por teclas
En 1885 la primera calculadora guiada por teclas exitosas, se inventó por Dorr Eugene Felt. Para preservar la expansión del modelo del aparato, llamado el "Comptómetro", Felt compró cajas de macarrones para albergar los aparatos. Dentro de los próximos dos años Felt vendió ocho de ellos al New York Weather Bureau y el U.S. Tresury. Se usó el aparato principalmente por contabilidad, pero muchos de ellos fueron usados por la U.S. Navy en computaciones de ingeniería, y era probablemente la máquina de contabilidad más popular en el mundo en esa época.
Sistema de tarjetas agujeradas
En 1886 la primera máquina tabuladora en usar una tarjeta agujerada de entrada del datos fue inventado por Dr. Herman Hollerith. Fue desarrollada por Hollerith para usarla en clasificar en 1890 el censo en U.S., en que se clasificó una población de 62, 979,766. Su ponche dejó que un operador apuntara un indicador en una matriz de agujeros, después de lo cual se picaría en una tarjeta pálida un agujero al inverso de la máquina. Después del censo Hollerith fundó la Compañía de las Máquinas de Tabulación, que, fusionando adquiere otras compañías, llegó a ser qué es hoy Máquinas del Negocio Internacionales (IBM).
Máquina de multiplicar
En 1893 la primera máquina exitosa de multiplicación automática se desarrolló por Otto Steiger. "El Millonario," como se le conocía, automatizó la invención de Leibniz de 1673, y fue fabricado por Hans W. Egli de Zurich. Originalmente hecha para negocios, la ciencia halló inmediatamente un uso para el aparato y varios miles de ellos se vendieron en los cuarenta años que siguió.
Tubo al vacío
En 1906 el primer tubo al vacío fue inventado por un inventor americano,Lee De Forest. "El Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de computadoras, a comienzos de 1930.
Flip-flop
En 1919 el primero circuito multivibrador avistable (o flip-flop) fue desarrollado por inventores americanos W.H. Eccles y F.W. Jordan. El flip-flop dejó que un circuito tuviera uno de dos estados estables, que estaban intercambiables. Formó la base por el almacenamiento del bit binario estructura de computadoras de hoy.
Computadora analógica (para ecuaciones diferenciales)
En 1931 la primera computadora capaz de resolver ecuaciones diferenciales analógicas fue desarrollada por el Dr. Vannevar Bush y sugrupo de investigación en MIT. "El Analizador Diferencial", como se llamaba, usaba engranajes diferenciales que fueron hechos rodar por motores eléctricos. Se interpretaron como cantidades los grados de rotación de los engranajes. Computaciones fueron limitadas por la precisión de medida de los ángulos.
Programa mecánico
En 1933 el primer programa mecánico fue diseñado por Wallace J. Eckert. El programa controló las funciones de dos de las máquinas en unísono y operadas por un cable. Los trabajos de Eckert sembraron la fundación para las investigaciones informático-científica de laUniversidad de Colombia.
Máquina lógica
En 1936 el primer modelo general de máquinas de la lógica fue desarrollado por Alan M. Turing. El papel, tituló "En Números calculables," se publicó en 1937 en la Sociedad de Procedimientos Matemáticos de Londres y describió las limitaciones de una computadora hipotética. Números calculables eran esos números que eran números reales, capaz de ser calculados por medios del lo finito. Turing ofreció prueba que mostró que al igual cuando usa un proceso finito y definido por resolver un problema, problemas seguros todavía no se pueden resolver. La noción de las limitaciones de tal problema tiene un impacto profundo en el desarrollo futuro de ciencia de la computadora.
1937 - 1949
Durante la segunda guerra mundial, estudios en computadoras fueron de interés nacional. Un ejemplo de ello es el "Coloso", la contra inglés a la máquina Nazi de códigos, el "Enigma". Después de la guerra, el desarrollo empezó su nido, con tecnología eléctrica permitiendo un avance rápido en computadoras.
En esta etapa se inventaron las siguientes:
Las funciones de cambio
En 1937 Claude F. Shannon dibujó el primer paralelo entre la Lógica de Boolean y cambió circuitos en la tesis del patrón en MIT. Shannon siguió desarrollando sus teorías acerca de la eficacia de la información comunicativa. En 1948 formalizó estas ideas en su "teoría de la información," que cuenta pesadamente con la Lógica de Boolean.
Electrónica digital
En 1939 la primera computadora electrónica digital se desarrolló en la Universidad del Estado de Iowa por Dr. John V. Atanasoff y Clifford Baya. El prototipo, llamó el Atanasoff Berry Computer (ABC), fue la primera máquina en hacer uso de tubos al vacío como los circuitos de la lógica.
Computadora programable
En 1941 la primera controladora para computadora para propósito general usada se construyó por Konrad Zuse y Helmut Schreyer. El "Z-3," como se llamó, usaba retardos electromagnéticos y era programada usando películas agujereadas. Su sucesor, el "Z-4," fue contrabandeado fuera de Berlín cuando Zuse escapo de los Nazis en Marzo de 1945.
Electrónica ingles
En el diciembre de 1943 se desarrolló la primera calculadora inglesa electrónica para criptoanálisis. "El Coloso," como se llamaba, se desarrolló como una contraparte al Enigma, La máquina codificación de Alemania. Entre sus diseñadores estaban Alan M. Turing, diseñador dela Máquina Turing, quien había escapado de los Nazis unos años antes. El Coloso tenía cinco procesadores, cada uno podría operar a 5,000 caracteres por segundo. Por usar registros especiales y un reloj interior, los procesadores podrían operar en paralelo (simultáneamente) que esta le daba al Coloso una rapidez promedio de 25,000 caracteres por segundo. Esta rapidez alta era esencial en el esfuerzo del desciframiento de códigos durante la guerra. El plan del Coloso era quedar como información secreta hasta muchos años después de la guerra.
Marca I ASCC
En 1944, el primer programa controlador americano para computadora fue desarrollado por Howard Hathaway Aiken. La "Calculadora Automática Controlada por Secuencia (ASCC) Marca I," como se llamaba, fue un parche de los planes de Charles Babbage por el artefacto analítico, de cien años antes. Cintas de papel agujereados llevaban las instrucciones. El Mark que midió cincuenta pies de largo y ocho pies de alto, con casi quinientas millas de instalación eléctrica, y se usó a la Universidad de Harvard por 15 años.
El primer error de computadora (bug)
El 9 de septiembre de 1945, a las 3: 45 pm, el primer caso real de un error que causa un malfuncionamiento en la computadora fue documentado por los diseñadores del Marca II. El Marca II, sucesor al ASCC Marca que se construyó en 1944, experimentó un falló. Cuando los investigadores abrieron caja, hallaron una polilla. Se piensa ser el origen del uso del término "bug" que significa insecto o polilla en inglés.
El ENIAC
En 1946 la primera computadora electrónica digital a grande escala llegó a ser operacional. ENIAC (Integrado Electrónico Numérico y Calculadora) usó un sistema de interruptores montados externamentes y enchufes para programarlo. El instrumento fue construido por J. Presper Eckert Hijo y John Mauchly. La patente por el ENIAC no fue aceptada, de cualquier modo que, cuando se juzgó como se derivó de una máquina del prototipo diseñado por el Dr John Vincent Atanasoff, quien también ayudó a crear la computadora Atanasoff-Berry. Se publicó trabajo este año que detalla el concepto de un programa guardado. Se completa sucesor a ENIAC, el EDVAC, en 1952.
El transistor
En 1947 se inventó la primera resistencia de traslado, (transistor) en Laboratorios Bell por John Bardeen, Walter H. Brattain, y William Shockley. Los diseñadores recibieron el Premio Nobel en 1956 por su trabajo. El transistor es un componente pequeño que deja la regulación del flujo eléctrico presente. El uso de transistores como interruptores habilitaron computadoras llegar a ser mucho más pequeño y subsiguientemente llevó al desarrollo de la tecnología de la "microelectrónica".
La computadora "Guarda Programas"
En 1948 la primera computadora de guardado de programa se desarrolló en la Universidad Manchester por F.C. y Williams T. Kilburn. El "Manchester Marca I", como se llamaba, se construyó para probar un tubo CRT de la memoria, inventada por Williams. Como tal, era una computadora escala. Una computadora a gran escala de guardado de programas se desarrolló un año más tarde (EDSAC) por un equipo encabezado por Maurice V. Wilkes.
Memoria
En 1949 la primera memoria fue desarrollada por Jay Forrester. Empezando en 1953, la memoria, que constó de una reja de anillos magnéticos en alambre interconectados, reemplazó los no confiables tubos al vacío como la forma predominante de memoria por los próximos diez años.
1950 - 1962
Desde 1950 hasta 1962, un número de desarrollos avanzaron en tecnología de computadoras. Una vez que la tecnología electrónica ha sido aplicada a máquinas de cómputo, computadoras pudieron avanzar lejos de sus habilidades previas. Guiadas por el modelo de Turín para máquinas lógicas, estudiosos de las computadoras integraron lógica en sus máquinas. Programadores fueron capaces de explotar estas utilidades mejor una vez que los primeros lenguajes de programación, COBOL, fueron inventados.
En esta etapa se inventaron las siguientes:
Computadora Interactiva
En 1950 la primera computadora interactiva en tiempo real, fue completada por un plan de diseño en MIT. La "Computadora del Torbellino," como se llamaba, fue adoptada para proyectos en el desarrollo de un simulador de vuelo por la U.S. Navy. El Torbellino usó un tubo de rayo de cátodo y una pistola de la luz para proveer interactividad. El Torbellino se conectaba a una serie de radares y podría identificar unavión poco amistoso e interceptores a su posición proyectada. Esta sería el prototipo para una red de computadoras y sitios de radar (SAGE) como un elemento importante de la defensa aérea de EUA por un cuarto-siglo después de 1958.
UNIVAC
En 1951 se entregó la primera computadora comercialmente disponible al Escritorio del Censo por el Eckert Mauchly Corporación de la Computadora. El UNIVAC (Computadora Universal Automática) fue la primera computadora que no era un solo disponible para laboratorios. El UNIVAC llegó a ser una casera en 1952 cuando se televisó en un reportaje de noticias para proyectar el ganador del Eisenhower-Stevenson raza presidencial con exactitud estupenda. Ese mismo año Maurice V. Wilkes (diseñador de EDSAC) creó la fundación de los conceptos de microprogramación, que sería el modelo de los diseñadores y constructores de la computadora.
Circuito Integrado
En 1958 el primer circuito integrado se construyó por Jack S. Kilby. Se hizo el circuito de varios elementos individuales de silicona congregados juntos. El concepto proveyó la fundación para el circuito integrado, que dejó grandes adelantos en la tecnología microelectrónica. También ese año, vino el desarrollo de un idioma de programación, llamado LISP (Procesador de Lista), para permitir la investigación en inteligencia artificial (IA).
COBOL
En 1960 el primer idioma de programación de alto nivel transportable entre modelos diferentes de computadoras se desarrolló por un grupo en el departamento de defensa patrocinada en la Universidad de Pennsylvania. El idioma era COBOL (Idioma Común Orientada al Negocio), y uno de los miembros del equipo de desarrollo era Grace Hopper (quien también escribió el primer programa recopilador práctico). Se introdujo este año El primer láser también, por Theodore H. Maiman en los Laboratorios Investigativos de Hughes. El láser (amplificación ligera por estimuló emisión de radiación) podría emitir luz coherente de un cristal de rubí sintético.
Cuaderno Gráfico
En 1962 los primeros programas gráficos que dejan que el usuario dibujara interactivamente en una pantalla fue desarrollado por Ivan Sutherland en MIT. El programa, llamado "Sketchpad," usó una pistola de luz para la entrada de gráficos en una pantalla CRT.
1963 - 1971
Una vez que la primera mini computadora fue construida en 1963, y luego la primera triunfante en los negocios la supercomputadora en 1964, la revolución de la computadora comenzó. Con la creación de cables de fibra óptica, semiconductores, láseres y bases de datos relacionados, la barrera fue derribada para los programadores. No sería hasta doce años después cuando la computadora, llega a los hogares.
En esta etapa se inventaron las siguientes:
La minicomputadora
En 1963 el primer miniordenador comercialmente exitoso fue distribuido por Corporación del Equipo digital (DEC). El DEC PDP-8 fue el sucesor al PDP-1, la primera computadora demostró por el DEC viejo en 1959. El advenimiento de la mini computación comercial fue el de tener una influencia significante en el desarrollo de secciones en la ciencia de la informática universitaria. La distribución de la Computadora 12-bit PDP-8 abrió las compuertas del comercio de miniordenador en otras computadoras.
Sistema IBM 360
En 1964 la familia de computadoras Sistema/ 360 fue lanzada por IBM. El Sistema/ 260 reemplazó transistores con circuito integrado, o lógica sólida, tecnología. Más de treinta mil unidades se vendieron, y una era nueva en tecnología de computadoras había empezado. Un mes después Sistema/ se introdujo 360, se corrió el primer programa BASIC a la Universidad de Dartmouth por su inventores, Tomás Kurtz y John Kemeny. BASIC sería el idioma introductorio por una generación entera de usuarios de la computadora.
Supercomputadora
En 1964 la primera supercomputadora a estar comercialmente disponible se envió por la Corporación de Datos de Mando. El CDC 6600 tenía varios datos devana bancos y estaba a quedar en la computadora más poderosa por muchos años después de su desarrollo.
El programa de ajedrez
En 1967 los primeros programas exitosos de ajedreces fueron desarrollados por Richard Greenblatt en MIT. El programa, llamado MacHack, fue presentado en un torneo de ajedrez a la categoría del novicio y ganó. El desarrollo futuro de tecnología de la inteligencia artificial (IA) era contar pesadamente en tal software de juego.
Minicomputadora de 16-bit
En 1969, la primera minicomputadora de 16-bit fue distribuida por Data General Corporation. La computadora, llamada la Nova, fue un mejoramiento en velocidad y poder sobre las minicomputadoras de 12-bit, PDP-8.
Fibra óptica
En 1970 el primer cable de fibra óptica fue comercialmente producido por Corning Glass Works, Inc. El cables de fibra óptica de vidrio dejaron que más datos transmitiera por ellos más rápido que por alambre o cable convencional. El mismo año, circuitos ópticos fueron mejoraron más allá, por el desarrollo del primer láser semiconductor.
Base de datos relacional
En 1970 el primer modelo de banco de datos relacional se publicó por E.F. Codd. Un banco de datos relacional es un programa que organiza datos, graba y deja que atributos similares de cada registro comparen. Un ejemplo es una colección de registros personales, donde los últimos nombres o se listan sueldos de cada persona. La publicación de Codd, tituló "Un modelo relacional de Datos para banco de datos grandes compartidos", abrió un nuevo campo entero en desarrollo de banco de datos.
Chip microprocesador
En 1971 el primer chip microprocesador fue introducido por IntelCorporación. El chip 4004 era un procesador 4-bit con 2250 transistores, capaz de casi el mismo poder como el 1946 ENIAC (que llenó un cuarto grande y tenía 18,000 tubos al vacío). El chip 4004 medía 1/ 6-pulgada de largo por 1/ 8-pulgada de ancho.
Computadora personal
En 1971 se construyó la primera computadora personal y distribuida por John Blankenbaker. La computadora, llamada el Kenbak-1, tenía una capacidad de memoria de 256 bytes, desplegaba datos como un juego de LED pestañe antes y era tedioso programarlo. Aunque sólo 40 computadoras Kenbak-1 se vendieron (a un precio de $750), introdujo la revolución de la computadora personal.
1972 - 1989
Una vez que la PC fue llegando a los hogares, la revolución de PC comienza. La competencia de los mercados entre manufactureros como IBM y Apple Computer avanzaron rápidamente en el campo. Por primera vez la habilidad de cálculos de alta calidad, estaba en la casa de cientos miles de personas, en vez que solo algunos privilegiados. Las computadoras finalmente se convirtieron en herramienta de la gente común.
En esta etapa se inventaron las siguientes:
Altair
En el enero de 1975 Micro Instrumentación Telemetry Systems (MITS) introdujeron el Altair. Una minicomputadora mas personal, el Altair erabarato ($350) del sistema que no tenía teclado, amonestador, o aparato del almacenamiento de la memoria, pero llevó el microprocesador 8-bit Intel 8080. Cuando se actualizó la computadora con 4 kilobyte de expansión de la memoria, Paul Allen y Bill Gates (más tarde a co-hallar la Microsoft Corporation) desarrolló una versión de BASIC como un idioma de la programación por la computadora.
Computadoras personales
En 1977, la primera computadora personal ensamblada fue distribuida por Commodore, Apple Computer, y Tandy. Dentro de unos años el PC (computadora personal) había llegado a ser un pedazo de la vida personal de cada uno de sus usuarios, y aparecería pronto en bibliotecas públicas, escuelas, y lugares de negocio. Fue también durante este año que la primera área comercialmente disponible Local Area Network (LAN) fue desarrollado por Datapoint Corporation, llamada ARCnet.
Procesador RISC
En 1980 el primer prototipo de Computadora de Instrucción Reducida (RISC) fue desarrollado por un grupo de investigación en IBM. El miniordenador 801 usó un juego simple de instrucciones en idioma de la máquina, que se puede procesar un programa muy rápido (usualmente dentro de un ciclo de la máquina). Varios vendedores mayores ahora ofrecen computadoras RISC. Es pensado por muchos que el RISC es el formato futuro de procesadores, debido a su rapidez y eficacia.
Microprocesador de 32-bit
En 1980 se desarrolló el primer microprocesador de 32-bit en un solo chip en Laboratorios Bell. El chip, llamado el Bellmac-32, proporcionó un mejor poder computacional sobre los procesadores anteriores de 16-bit.
IBM PC-XT
En 1981 la revolución de la computadora personal ganó impulso cuando IBM introdujo su primera computadora personal. La fuerza de la reputación de IBM era un factor importante en legitimar PC para uso general. La primera IBM PC, era un sistema basado de un floppy el cual usó el microprocesador 8088 de Intel. Las unidades originales teníanpantallas de sólo texto, gráficos verdaderos eran una alternativa que llegó más tarde. Se limitó memoria también, típicamente sólo 128K, o 256K de RAM. La máquina usó un sistema operativo conoce como DOS, un sistema de la línea de comandos similar a los más antiguo sistemas CP/M. IBM más tarde lanzó el IBM PC/ XT. Éste era una máquina extendida que añadió una unidad de discos duros y gráficos CGA. Mientras la máquina llegó a ser popular, varias otras compañías empezaron a lanzar imitaciones del IBM PC. Estos temprano "clones" se distinguieron por incompatibilidades debido a su incapacidad a reproducir debidamente el IBM BIOS. Se comercializaron éstos normalmente como" 90% compatible." Se superaría Este problema pronto y la competición serviría para empujar la tecnología y precios de la unidad abajo.
Procesamiento paralelo
En 1981 la primera computadora del proceso comercial paralela fue distribuida por BBN Computers Advanced, Inc. La computadora, llamada la "Mariposa", era capaz de asignarles a partes de un programa hasta 256 diferentes procesadores, en consecuencia de esto la velocidad del proceso y eficacia incrementan.
Macintosh
En 1984 el primer Macintosh personal computer fue distribuido por Apple Computer, Inc. El Macintosh, el cual tenía una capacidad de la memoria de 128KB, integró un monitor, y un ratón, fue la primera computadora en legitimar la interfaz gráfica. La interfase de Mac era similar a un sistema explorado por Xerox PARC. En lugar de usar una interfase de línea de comando que era la norma en otras máquinas, el MacOS presentó a los usuarios con "iconos" gráficos, sobre las ventanas gráficas, y menúes deslizantes. El Macintosh era un riesgo significante por Apple en que el nuevo sistema era incompatible con cualquiera otro tipo de software, o su propia Apple ][, o el IBM PC línea. Se plagó la máquina más allá por memoria limitada y la falta de una unidad de discos duros... La máquina pronto llegó a ser una norma por artistas gráficos y publicadores. Ésta dejó que la máquina creciera en una plataforma más establecida.
IBM PC-AT
En 1984 IBM distribuido el IBM PC-AT, la primera computadora usaba el chip microprocesador Intel 80286. La serie Intel 80x86 adelantó el poder del procesador y flexibilidad de las computadoras IBM. IBM introdujo varios cambia en esta línea nueva. Se introdujo ése un sistema de los gráficos nuevo, EGA, dejó que 16 colores de gráficos a resoluciones más altas (CGA, el sistema más antiguo que sólo tenía cuatro colores). La máquina también incorporó un bus de datos de 16-bit, y mejorado del el 8-bit bus de XT. Esto permitió la creación de tarjetas de expansión más sofisticadas. Otro mejora incluyeron un teclado extendido, un mejor suministro de energía y una caja del sistema más grande.
1990 - Presente
Por este tiempo, las computadoras has sido adaptada a casi cada aspecto de la vida moderna. Desde controlar motores de automóviles hasta comprar en los supermercados. Cada vez máquinas más rápidas y nuevas, son creadas. Esto hace que las casas de programas tomenventaja de estas nuevas máquinas. Aunque estas tecnologías son las últimas son las máquinas viejas del futuro.
En esta etapa se inventaron las siguientes:
Computadoras ópticas
En 1990 se construyó el primer procesador óptico en At&T Laboratorios de Bell. El procesador emplea pequeños, láseres semi-conductores para llevar información y guardar circuitos ópticos y procesan la información. Usar luz, en lugar de electricidad, para llevar datos podía teóricamente hacer de las computadoras miles de veces más rápido.
Interruptor de un solo átomo
En 1991 la primera demostración de un interruptor cuenta con se dio el movimiento de un átomo se dio a conocer en IBM Almaden Research Center. Un átomo Xenon se colocó en una superficie cristalina, el cual puede ser observado por microscopio. Reemplazar interruptores electrónicos con interruptores atómicos podía hacer tales interruptores un milésimo de su tamaño del presente.
Virus Miguel Ángel
Temprano en 1992 un virus fue descubierto, el cual estaba programado para activarse el 6 de marzo, el cumpleaños de Miguel Ángel. Se esperó que el virus extendido dañara o destruyera archivos de usuario en la unidad de disco duro. Recibió cobertura de las noticias nunca visto, sobre la advertencia a las personas de los pasos necesitaron proteger su sistema. Aunque se diseñó el virus para ser destructivo, realmente tenía un efecto positivo. Las noticias alertaron a personas sobre los peligros de los viruses e informado a ellos de precauciones para proteger sus sistemas...
Nuevos microprocesadores
En 1992 varios microprocesadores nuevos llegaron a ser disponibles los cuales mejorarían dramáticamente el desempeño de computadoras de escritorio. El Intel 80486 llegó a ser la norma nueva para las PC sistemas y Motorola 68040 dio energía similar a otra estación. Procesadores más nuevos como el Pentium, i860, y el chip PowerPC RISC les promete aun a más grandes ganancias en energía del proceso y rapidez.
Nuevos sistemas operativos
1992 fue un año del estampido para los sistemas operativos nuevos. En abril Microsoft S.A. lanzó Windows v3.1. Otro programas nuevos incluyen IBM OS/ 2 v2.0, y Apple System 7.1. Todas las versiones nuevas fueron una versión revisada de sistemas más viejos. Agregaron cosas como tipos de letra y mejoramiento de vídeo.
Miniaturización
Avances en tecnología de la miniaturización han habilitado a fabricantesde computadoras continuar a suministrar máquinas de la calidad más alta en conjuntos más pequeños. El poder del proceso el cual, hace veinte años, habría ocupado la computadora del equipo central un cuarto entero, hoy día se puede llevar alrededor de en una computadora de libreta que pesa sólo seis o siete libras. Palmtop , pequeña bastante como para encajar en un bolsillo, tiene más rapidez y poder que las supercomputadoras de los 1950.
Redes
Redes de Área Local, o LANs, están entre las técnicas más rápidas desarrolladas para comunicación entre las oficinas hoy día. Recientemente, avances tecnología LAN han incluido comunicando computadoras con luces Infra rojas y ondas de radio. Estos sistemas inalámbricos permiten a los LAN a ser usado sin instalar cable y permitir a los LAN a ser personalizado fácilmente e ingresar mas estaciones sin cables.
Guardado de información
Entre los muchos adelantos recientes para tecnología de la computadora son esos sistemas almacenamiento de la información de las máquinas modernas. Tipos de disquetes los cuales alguna vez mantuvieron 128 kilobytes de información, ahora pueden guardar 1.2 megabytes de información. Adelantos tal como "flóptical" que usa sincronización del láser de los discos del floppy, puede mejorar, en otros tiempos, capacidades inimaginables. CD-ROM, capaces de guardar 500 megabytes de información, llega a ser miniaturizados mientras discos más pequeños pueden retener más información.
Las partes de las computadoras
La tarjeta madre (o tarjeta lógica) es el circuito primario en el sistema. Soporta los componentes eléctricos directamente relacionados con la computación y procesamiento de información. Los componentes principales incluyen el CPU, memoria (RAM, ROM, y chips relacionados), co procesador matemático (algunos), y slots de expansión. Tarjetas de expansión pueden ser incluidas en los slots de expansión para personalizar el equipo. Las tarjetas de expansión pueden ser: controladores de discos, módems internos, memoria expandida, y tarjetas I/O para aparatos como impresoras.
CPU
La unidad central de procesamiento (o CPU) es el chip primario de la tarjeta madre. Es responsable de la computación y controlar otros componentes. Un circuito integrado, interpreta y ejecuta instrucciones y transfiere información a y desde otros componentes en el BUS. Los chips de CPU son los responsables de agarrar y decodificar la información, ejecutar instrucciones, y generalmente actuando como el "Cerebro" de la computadora.
BIOS
El chip de BIOS ROM contiene una serie de instrucciones los cuales permiten al monitor, impresora, unidades, etc. a transferir información por el sistema. El BIOS es el responsable de la identidad de la máquina como "IBM PC compatible".
Batería de seguridad de la BIOS
La batería de seguridad de BIOS es una batería separada hecha para servir solo al chip BOIS. Esta mantiene la configuración del CMOS, así como la hora cuando la computadora es apagada o desenchufada.
Cristal de tiempo
El cristal de tiempo es la unidad maestro para el sistema. El cristal es parte del circuito el cual pone en compromiso el circuito de reloj. Este circuito depende de la oscilación del cristal para obtener la frecuencia regular, parejas, en el cual cada componente opera. La frecuencia del cristal es relacionada directamente a la "velocidad" de la computadora.
Tabla de circuitos
La tabla de circuitos es una tarjeta plana de Mylar rígido, usualmente verde. Está compuesto por varias capas que han sido laminado juntos. Un alambrado es impreso en la tabla antes que la laminación resulte en unas redes de alambre en la tabla. Estos "Trazos" conectan componentes y circuitos, permitiendo información y poder ser transferidos entre ellos. Los componentes pueden ser conectados a la tarjeta directamente, o mediante sócates. Jumpers o interruptores dip pueden estar presentes para controlar ciertos aspectos del comportamiento de la máquina.
Reloj
Un reloj de tiempo real mantiene la hora actual del día y fecha delcalendario para la computadora. Es mantenida por la batería de seguridad del BIOS. Esto mantiene la hora actualizada cuando se apaga la computadora.
Jumpers
Los jumpers son interruptores eléctricos encontrados en la tarjeta madre o tarjetas de expansión. Son utilizadas para ajustar los parámetros específicos manualmente.
Controladora de teclado
Los controladores de teclado es un chip separado de procesamiento el cual recibe información del teclado y lo interpreta antes de mandarlo al CPU. Esto permite al CPU a actuar más rápidamente y más eficientemente, sin tener el CPU que hacer este trabajo.

Conector de teclado
El conector de teclado es el sócate en el cual el cable del teclado se enchufa. El conector conecta el teclado con el controlador el cual pre procesa la secuencia de teclas antes de ser enviadas al CPU.
Seguro
El seguro es un pequeño contacto por en cual se conecta una cerradura de computadora, cuando está cerrada, la computadora lo detecta y no permite que el usuario acceda al sistema.
Co procesador matemático
El co procesador matemático es un chip en cual mejora las características computacionales de la computadora. También es llamado el co procesador numérico. A diferencia del CPU, el co procesador solo es envuelto con números reales.
Conector de poder
El conector de poder es un sócate en la tarjeta madre el cual conecta el cableo desde la fuente de poder. El voltaje saliente de la fuente de poder ha sido transformado, de 110v o 220v, hasta 15-20v. Esta variación es enviada a la tarjeta madre para ser utilizada por sus componentes.
Botón de reseteo
El botón de reseteo es un pequeño conector por el cual los cables del botón de reseteo se conectan con la tarjeta madre. Cuando el botón de reseteo es presionado, la tarjeta madre detecta esto y reinicializa la computadora, esto es útil cuando el sistema se cae o choca.
Memoria ROM
El chip ROM (memoria de solo lectura) es una memoria basada en la tecnología del semiconductor. Consiste en una matriz de pequeños alambres los cuales son impresos en un chip, desde un patrón maestro. Donde las intersecciones de alambre (llamada uniones de bit) ocurren. Otro tipo de ROM es la PROM (programable) consiste en una matriz de transistores alambrados. Los PROM pueden ser programados por quemar eléctricamente los transistores individuales selectivamente para dar el patrón de memoria deseado. El beneficio de esto es que las matrices no vienen establecidas de lafábrica. Y el último tipo de ROM es la EPROM (programable y reusable).
SIMM
Los SIMM es una pequeña tabla de circuito el cual puede ser enchufado en los slots en la tarjeta madre. Cuando Instaladas, los chips RAM montados en los SIMM expanden la memoria de la computadora. Muchos sistemas incluyen slots SIMM por su conveniencia de la instalación. Un SIMM puede ser instalado en segundos, con un pequeño margen de error. Métodos viejos necesitarían un mínimo de nueve chips DRAM el los antiguos sócates IC. Este método puede causar muchos problemas ya que las patas de los chips pueden ser doblados fácilmente. Los SIMM también ocupan menos espacio en la tarjeta madre, permitiendo más memoria a ser instalado. Un SIMM de un megabyte son los más comunes, pero están disponibles hasta de 32MB.
Conector de corneta
El conector de corneta es un contacto pequeño por el cual la corneta interna del PC se conecta con la tarjeta madre. La corneta transforma pulsos eléctricos en vibraciones sónicas. Esto permite que los sonidos de advertencia o sonidos relacionados con actividad sean conllevados al usuario. La corneta también es utilizada para música rudimentaria y sonidos para juegos de computadora.
Indicador de velocidad
Algunos sistemas indican la velocidad de la máquina en una pantalla LED. El conector LED hace el puente entre ella y la tarjeta madre. El cristal de tiempo oscila a una frecuencia. Llamada la velocidad de reloj, el cual determina la velocidad de la computadora. Esta frecuencia, en megahertz, es enseñada en los LED.


Circuito de soporte
El circuito de soporte en la tarjeta madre incluye componentes los cuales no están directamente relacionada con el proceso de guardado de información, o configuración o control de partes físicas. Esto incluye los transistores individuales y capacitadores, cristales de tiempo, así como los circuitos de chips integrados. Estos componentes transfieren electricidad a y desde cada componente por los puntos de la tarjeta madre.
Interruptores DIP
Aunque los transistores y capacitares pueden ser utilizados como interruptores (como en RAM y ROM), interruptores mecánicos más grandes son incluidos para configurar las opciones de la tarjeta madre manualmente. Un interruptor común es el interruptor DIP. Estos interruptores permiten que se configuren parámetros individuales como ON u OFF.
LED de tiempo
El LED de tiempo es un pequeño contacto por el cual el LED de tiempo en el chasis se conecta con la tarjeta madre. El LED de tiempo es una luz por la cual indica la velocidad a la que el procesador está operando.
Las computadoras modernas
Una variedad de estilos de chasis está en uso hoy. Los principales son el chasis de mesa, torre, mini torre, laptop, notebook, y palmtop. Ellos sirven de soporte a los componentes principales de las computadoras. Estos incluyen, la fuente de poder, tarjeta madre, unidades, etc. El tamaño y estilo del chasis depende del uso del sistema. Laptops,notebooks, y palmtops proveen diferentes grados de portabilidad, pero sacrifican expansibilidad. Sistemas de mesa y torre son estacionarios, pero soportan una gran variedad de periféricos. Sistemas de mesa, torres y mini torres normalmente tienen varias bahías y puertos de expansión. El monitor y teclado son separados en estas configuraciones. Un sistema laptop es más pequeño, portátil, con un monitor de bisagra y un teclado integrado. Ellos normalmente pesan entre 12 a 14 libras. Los sistemas notebooks aún son más pequeños. Pesan entre 4 a 7 libras. Un sistema palmtop es la más pequeña de todas, pesando menos que 2 libras. Sistemas palmtops tienen teclado y monitor integrado.

Operaciones de números binarios
Ejemplos
Sumas
0+0 = 0
0+1 = 1
1+0 = 1
1+1 = 10
Ejemplos
01100
10011
11111
11111
10111
100110
Restas
0-0 = 0
1-0 =1
1-1 = 0
0-1 =10 = 1
Ejemplos
110001
101010
001010
011010
001101
010111
Publicado por rincon valencia en 20:27 0 comentarios
Etiquetas: conceptos
viernes 23 de abril de 2010
Usar los conceptos básicos de la programación y el ciclo del la vida del software
Programador de software: Persona que diseña, escribe y/o depura programas de ordenador o computadora, es decir, quien diseña la estrategia a seguir, propone las secuencias de instrucciones y/o escribe el código correspondiente en un determinado lenguaje de programación.

Programa: Es una lista de instrucciones que la computadora debe seguir para procesar los datos y convertirlos en información.
Características del programa:
• Un programa debe ser confiable y funcional.
• Advertir errores de entrada obvios y comunes.
• Documentado adecuadamente.
• Debe ser comprensible.
• Codificado en el lenguaje apropiado.

Computadora: También denominado ordenador o computador, es una maquina eléctrica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud.

Software: Se refiere al equipamiento lógico de una computadora digital y comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica.

Hardware: Corresponde a todas las partes físicas y tangibles de una computadora y sus componentes. Sus componentes eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, gabinetes, o cajas, periféricos de todo tipos y cualquier otro elemento físico involucrado.

Datos: Son las características propias de cualquier entidad por ejemplo los datos de una persona.

Información: Es el conocimiento relevante producido como resultado del procesamiento de datos adquirido por la gente para realizar el entendimiento y cumplir ciertos propósitos.

Lenguajes de programación:

ABAP
ABC
ADA
Action script
AFNIX
ALGOL
APL
B
BASIC
BCPL
Boo
C
C++
Caml
CLIPS
COBOL
CORAL
D
Delphi
DIV
Dylan
Erlang
Extended ML
FENIX
FORTH
FORTRAN
GAMBAS
GML
GRAFCET
FP
INTERCAL
ISWIM
J
Java
LADDER
MAGIC
ML
NetREXX
OBERON
ObjectREXX
Pascal
PHP
Python
REXX

RPN
RPG
SPARK
Estándar ML
TCL
VBA
Visual Basic
Visual FoxPro
ZPL
AJAX
XML
Visual


Procesamiento de datos: Consiste en la recolección de datos de entrada que son evaluados y ordenados para ser colocados de manera que produzca información útil.

Actividades del procesamiento de datos
1. Captura de datos de entrada
2. Manejo de los datos (Incluye clasificación, ordenación, calculo y sumarisacion de estos).

Pasos de desarrollo de Software:
1. Especificación del programa.
2. Diseño del programa.
3. Codificación del programa.
4. Prueba.
5. Documentación.
6. Mantenimiento.

1) Especificación del programa: Es el paso donde se determina la información inicial para la elaboración del programa. Es donde se determina que es lo que se debe resolver con el computador, de que presupuesto se debe partir en definitiva, el planteamiento del problema.

2) Diseño del programa: Es diseñar cualquier sistema nuevo o las aplicaciones que se requieren para satisfacer las necesidades. En este paso se genera una solución con técnicas de programación como diseño descendente de programas, pseurocodigos, diagramas de flujo y estructuras lógicas.

3) Codificación del programa: Es la generación real del programa con un lenguaje de programación.

4) Prueba y depuración: Depurar es correr el programa en una computadora y corregir las partes que no funcionan. En esta fase se comprueba el funcionamiento de cada programa y esto se hace con datos reales o ficticios. Cuando los programas están depurados, se prueban. Cuando los programas se prueban se pueden encontrar los siguientes errores:

A) Errores de sintaxis.
B) Errores de ejecución.
C) Errores lógicos.
D) Errores de especificación.

A) Errores de sintaxis: Es una violación de las reglas del lenguaje de programación. Son más fáciles de corregir ya que son detectados por el compilador, el cual dará información sobre el lugar que esta el error y la naturaleza de cada uno de ellos mediante un mensaje de error.

B) Errores de ejecución: Se deben generalmente a operaciones no permitidas como dividir por 0, leer un dato no numérico en una variable numérica. Se detectan porque se produce una parada anormal del programa durante su ejecución.


C) Errores lógicos: Corresponden a la obtención de resultados que no son correctos y la única manera de detectarlos es realizando suficientes pruebas de programa. Son los mas difíciles de corregir, no solo por la dificultad de detectarlos sino porque se deben a la propia concepción y diseño del programa.

D) Errores de especificación: Es el peor tipo de error y el mas difícil de corregir. Se deben al mal diseño del programa posiblemente por mala comunicación usuario-programador y se detectan ya cuando ya se ha concluido el diseño e instalación del programa, lo cual, puede implicar repetir gran parte del trabajo realizado.

4) Prueba: Consiste en verificar la funcionalidad del programa a través de varios métodos para detectar errores posibles.

Métodos de prueba:
A) Chequeo de escritorio.
B) Prueba manual de datos de muestra.
C) Intento de traducción.
D) Prueba de datos de muestra en la computadora.
E) Prueba por un grupo selecto de usuarios potenciales.

4) Documentación del programa: Consiste en describir por escrito a nivel técnico los procedimientos relacionados con el programa y su modo de uso. También se debe documentar el programa para que sea más entendible.

¿Para quienes son la documentación?
-Usuarios.
-Operadores.
-Programadores.
-Analistas del sistema.
Publicado por rincon valencia en 19:07 0 comentarios
desarollo de la logica computacional mediante lineas de razonamiento logico
I conceptos

código fuente es un conjunto de líneas de texto que son las instrucciones que debe seguir la computadora para ejecutar dicho programa.
Rozamiento En sentido amplio, se entiende por rozamiento la facultad humana que permite resolver problemas.
lógica es una ciencia formal y una rama de la filosofía que estudia los principios de la demostraciones e inferencia valida
lenguaje de alto nivel Los lenguajes de programación de alto nivel se caracterizan por expresar los algoritmos de una manera adecuada a la capacidad cognitiva humana, en lugar de a la capacidad ejecutora de las máquinas.
lenguje de bajo nivel Un lenguaje de programación de bajo nivel es el que proporciona poca o ninguna abstracción del microprocesador de un ordenador. Consecuentemente es fácilmente trasladado a lenguaje de máquina.
variable es un símbolo que representa un elemento no especificado de un conjunto dado
constante es un valor que no puede ser alterado durante la ejecución de un programa

II conceptos

lógica matemática es una parte de la lógica y las matemáticas, que consiste en el estudio matemático de la lógica y en la aplicación de este estudio a otras áreas de las matemáticas
programacion lógica consiste en la aplicación del corpus de conocimiento sobre lógica para el diseño de lenguajes de programación; no debe confundirse con la disciplina de la lógica computacional.
álgebra de boole (también llamada Retículas booleanas) en informática y matemática, es una estructura algebraica que rigorizan las operaciones lógicas Y, O y NO, así como el conjunto de operaciones unión, intersección y complemento.
lógica formal es la parte de la lógica que, a diferencia de la lógica informal, se dedica al estudio de la inferencia mediante la construcción de lenguajes formales, sistemas deductivos y semánticas formales. La idea es que estas construcciones capturen las características esenciales de las inferencias válidas en los lenguajes naturales, pero que al ser estructuras formales y suceptibles de análisis matemático, permiten realizar demostraciones rigurosas sobre ellas.
bit Un bit es un dígito del sistema de numeración binario
lógica proporcional En lógica y matemática, la lógica proposicional es un sistema formal diseñado para analizar ciertos tipos de argumentos.
sintaxis es la parte de la gramática que estudia las reglas que gobiernan la combinatoria de constituyentes sintácticos y la formación de unidades superiores a estos, como los sintagmas y oraciones gramaticales
semántica se refiere a los aspectos del significado, sentido o interpretación del significado de un determinado elemento, símbolo, palabra, expresión o representaciónformal.



Jerarquía de operadores
Para resolver una expresión aritmética hay una serie de reglas que se deben seguir:
• Primero se resuelven las expresiones que se encuentran entre paréntesis.
• Se aplica la jerarquía de operadores (primero las potencias, después multiplicacióno division, y por ultimo suma y resta.
• Al evaluar una expresión, si hay dos operadores con la misma jerarquía, se evalúade izquierda a derecha.
• Si hay expresiones relacionales, se resuelven primero paréntesis, luego se encuentran los valores y por último se aplica la jerarquía de operadores. En caso de ser de igual jerarquía, proceder de izquierda a derecha.

miércoles, 23 de junio de 2010

Algoritmo

Algoritmos.
• Algoritmos
• Algoritmos Cotidianos
Descargar Música.
1. Inicio
2. Buscar un internet que contenga ares o limeware
3. Escribir la música que quiero
4. Esperar a que se descargue
5. Fin
Como hacer un pastel.
1. Inicio
2. Conseguir lo necesario para el pastel
3. Batir todo
4. Cocinarlo
5. Fin
Calcular el área de un cuadrado
1. Inicio
2. Leer (L) L=Lado
3. A=L*L A=Área
4. Escribir (A)
5. Fin
Lenguajes de programación
Lenguaje Natural
Son aquellos que están orientados alas Solución de problemas que se definen de Una manera precisa. Los principales tipos de lenguajes de programación
Lenguaje Maquina
Son aquellos qué están escritos en lenguajes directamente inteligentes Por la maquina ya qué sus instrucciones son cadenas binarias
Ventajas
Posibilidad de cargar (transferencia a un programa a la memoria) sin Necesidad de transducción posterior, una velocidad de ejecución Superior a cualquier otro lenguaje.
Desventaja
Dificultad y lentitud de la codificación poca fiabilidad gran dificultad Para verificar y poner a punto los programas solo son ejecutables Mismo procesador (CPU)
Lenguajes de Alto Nivel
Estos son los más utilizados por los programadores, están diseñados Para que las personas que escriban y entiendan los programas de un modo mucho más fácil. Estos programas son portables
Ventajas
El tiempo de formación de los programadores es relativamente corto Comparado con lo de otros lenguajes, estos programas son portables o transportables. Pueden ser ejecutables con poca o ninguna modificación en diferentes tipos de computadoras.
Desventajas
Tarda en copilar, incremento de tiempo, problemas frente graves, aumento de la operación, alto tiempo de programación.

Definición de algoritmo: Se define como un método que se realiza paso a paso para solucionar un problema que termina en un número finito de pasos.

Las partes fundamentales que debe cumplir todo algoritmo:
• Debe ser preciso e indicar el orden de realización de cada paso.
• Debe ser definido si se sigue un paso 2 veces, se debe obtener el mismo resultado cada vez.
• Debe ser finito si se sigue un algoritmo, debe terminar en algún momento, debe tener un número finito de pasos.

La definición de un algoritmo debe tener 3 partes entrada, proceso y salida.

Algoritmos cotidianos: Se refiere a todos aquellos algoritmos que nos ayudan a resolver problemas diarios, y que los hacemos casi sin darnos cuenta que estamos siguiendo una metodología para resolverlos.

Ejemplo de algoritmo: Diseñar un algoritmo para cambiar una llanta a un coche.
1. Inicio
2. Traer el gato.
3. Levantar el coche con el gato.
4. Aflojar tornillos de las llantas.
5. Sacar los tornillos de las llantas.
6. Quitar la llanta.
7. Poner la llanta de repuesto.
8. Poner los tornillos.
9. Apretar los tornillos.
10. Bajar el gato.
11. Fin

Definición de lenguajes algorítmicos: Los algoritmos pueden describirse utilizando diversos lenguajes. Cada uno de estos lenguajes permiten describir los pasos con mayor o menor detalle.

La clasificación de los lenguajes para algoritmos puede enunciarse de la siguiente manera:
1. Lenguaje natural.
2. Lenguaje de diagrama de flujo.
3. Lenguaje natural de programación.
4. Lenguaje de programación de algoritmos
Elaborar diseños detallados por medio de código escrito en forma de algoritmo.

Introducción: Los sistemas modernos de computación consisten en una gran conjunción de elementos de circuitos (Hardware) y de programación (Software) que han sido diseñados para promocionado a la computación un ambiente productivo y hasta cierta medida agradable.

El termino sistema de computo se utiliza para señalar lo que el usuario emplea, el lugar el termino computadora. En los primeros años de la computación, los usuarios del sistema debían interactuar más estrechamente con el Hardware real que lo que es hoy necesario, muchas funciones que debían realizar los usuarios mismos se manejan ahora por Software mediante sistemas operativos. El sistema operativo crea un ambiente en el cual los usuarios pueden preparar programas y ejecutarlos sin tener que entrar en los detalles del Hardware del sistema.

Para satisfacer el crecimiento de la demanda de medios de computación, es que se ha desarrollado la multiprogramación, en la cual varios usuarios emplean el sistema de manera simultanea como Windows por ejemplo.

Un termino fundamental de esta materia es el programa: el cual es simplemente una secuencia de instrucciones que orienta a la Unidad de Control de Procesamiento(CPU) en el desarrollo de los cálculos, el cual debe expresarse de forma que sea entendido por el CPU. Un CPU solo puede entender instrucciones que estén expresados en términos de su lenguaje maquina.

Definición de lenguaje de programación: Un lenguaje de programación es aquel que es utilizado para escribir programas de computadoras que puedan ser entendidos por ellas. Estos lenguajes se clasifican en 3 grandes niveles:

1) Lenguaje maquina.
2) Lenguaje de bajo nivel o ensamblador.
3) Lenguaje de alto nivel.

.

1. Lenguaje natural: Es aquel que describe en español para nuestro caso, los pasos a seguir utilizando un vocabulario cotidiano. Se le conoce como lenguaje jerga cuando se utilizan términos especializados de una determinada ciencia, profesión o grupo.

2. Lenguaje de diagrama de flujo: Es aquel que se vale de diversos símbolos para representar las ideas o acciones a desarrollar. Es útil para organizar las acciones o pasos de un algoritmo pero requiere de etapas posteriores para implementarse en un sistema de computo

3. Lenguaje natural de programación: Son aquellos que están orientados a la solución de problemas que se definen de una manera precisa. Generalmente son aplicados para la elaboración de formulas o métodos científicos.

4. Lenguaje de programación de algoritmos: Es aquel que se utiliza para introducir en la computadora un algoritmo específico.

Lenguajes de programación: Es un conjunto de palabras, símbolos y reglas de sintaxis mediante los cuales puede indicarse a la computadora los pasos a seguir para resolver un problema. Pueden clasificarse por diversos criterios siendo el mas común su nivel de semejanza con el lenguaje natural, y su capacidad de manejo de niveles internos de la maquina.

Los principales tipos de lenguajes utilizados son 3:

1. Lenguaje maquina: Son aquellos que están descritos en lenguaje directamente inteligibles por la maquina (computadora) ya que sus instrucciones son cadenas binarias (cadenas, o series de caracteres de dígitos 0 y 1) que especifican una operación y las posiciones (dirección) de memoria implicadas en la operación se denomina instrucciones en lenguaje maquina.
El código maquina es conocido como código binario.
Las instrucciones en lenguaje maquina dependen del hardware de la computadora y por lo tanto deferirán de una computadora a otra.

2. Lenguaje de bajo nivel: Son mas fáciles de utilizar que los lenguajes maquina, pero al igual que ellos dependen de la maquina en particular.
El lenguaje de bajo nivel por excelencia es el ensamblador las instrucciones en lenguaje ensamblador son instrucciones conocidas como nemotécnicos.

3. Lenguaje de alto nivel: Estos lenguajes son los más utilizados por los programadores están diseñados para que las personas escriban y entiendan los programas de un modo mucho más fácil que los lenguajes ensambladores.


Un lenguaje escrito en lenguaje de alto nivel es independiente de la maquina (las instrucciones no dependen de la maquina en particular) por lo que estos programas son portables o trasportables. Los programas escritos en lenguaje de alto nivel pueden ser ejecutados con poca o ninguna modificación en diferentes tipos de computadoras.
Usar los conceptos básicos de la programación y el ciclo de vida del software.
Programador de software: Persona que diseña, escribe y/o depura programas de ordenador o computadora, es decir, quien diseña la estrategia a seguir, propone las secuencias de instrucciones y/o escribe el código correspondiente en un determinado lenguaje de programación.

Programa: Es una lista de instrucciones que la computadora debe seguir para procesar los datos y convertirlos en información.
Características del programa:
• Un programa debe ser confiable y funcional.
• Advertir errores de entrada obvios y comunes.
• Documentado adecuadamente.
• Debe ser comprensible.
• Codificado en el lenguaje apropiado.

Computadora: También denominado ordenador o computador, es una maquina eléctrica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud.

Software: Se refiere al equipamiento lógico de una computadora digital y comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica.

Hardware: Corresponde a todas las partes físicas y tangibles de una computadora y sus componentes. Sus componentes eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, gabinetes, o cajas, periféricos de todo tipos y cualquier otro elemento físico involucrado.

Datos: Son las características propias de cualquier entidad por ejemplo los datos de una persona.

Información: Es el conocimiento relevante producido como resultado del procesamiento de datos adquirido por la gente para realizar el entendimiento y cumplir ciertos propósitos.

Lenguajes de programación:

ABAP
ABC
ADA
Action script
AFNIX
ALGOL
APL
B
BASIC
BCPL
Boo
C
C++
Caml
CLIPS
COBOL
CORAL
D
Delphi
DIV
Dylan
Erlang
Extended ML
FENIX
FORTH
FORTRAN
GAMBAS
GML
GRAFCET
FP
INTERCAL
ISWIM
J
Java
LADDER

Visual


Procesamiento de datos: Consiste en la recolección de datos de entrada que son evaluados y ordenados para ser colocados de manera que produzca información útil.

Actividades del procesamiento de datos
1. Captura de datos de entrada
2. Manejo de los datos (Incluye clasificación, ordenación, calculo y solarización de estos).

Pasos de desarrollo de Software:
1. Especificación del programa.
2. Diseño del programa.
3. Codificación del programa.
4. Prueba.
5. Documentación.
6. Mantenimiento.

1) Especificación del programa: Es el paso donde se determina la información inicial para la elaboración del programa. Es donde se determina que es lo que se debe resolver con el computador, de que presupuesto se debe partir en definitiva, el planteamiento del problema.

2) Diseño del programa: Es diseñar cualquier sistema nuevo o las aplicaciones que se requieren para satisfacer las necesidades. En este paso se genera una solución con técnicas de programación como diseño descendente de programas, pseudocódigos, diagramas de flujo y estructuras lógicas.

3) Codificación del programa: Es la generación real del programa con un lenguaje de programación.

4) Prueba y depuración: Depurar es correr el programa en una computadora y corregir las partes que no funcionan. En esta fase se comprueba el funcionamiento de cada programa y esto se hace con datos reales o ficticios. Cuando los programas están depurados, se prueban. Cuando los programas se prueban se pueden encontrar los siguientes errores:

A) Errores de sintaxis.
B) Errores de ejecución.
C) Errores lógicos.
D) Errores de especificación.

A) Errores de sintaxis: Es una violación de las reglas del lenguaje de programación. Son más fáciles de corregir ya que son detectados por el compilador, el cual dará información sobre el lugar que esta el error y la naturaleza de cada uno de ellos mediante un mensaje de error.

B) Errores de ejecución: Se deben generalmente a operaciones no permitidas como dividir por 0, leer un dato no numérico en una variable numérica. Se detectan porque se produce una parada anormal del programa durante su ejecución.


C) Errores lógicos: Corresponden a la obtención de resultados que no son correctos y la única manera de detectarlos es realizando suficientes pruebas de programa. Son los mas difíciles de corregir, no solo por la dificultad de detectarlos sino porque se deben a la propia concepción y diseño del programa.

D) Errores de especificación: Es el peor tipo de error y el mas difícil de corregir. Se deben al mal diseño del programa posiblemente por mala comunicación usuario-programador y se detectan ya cuando ya se ha concluido el diseño e instalación del programa, lo cual, puede implicar repetir gran parte del trabajo realizado.

4) Prueba: Consiste en verificar la funcionalidad del programa a través de varios métodos para detectar errores posibles.

Métodos de prueba:
A) Chequeo de escritorio.
B) Prueba manual de datos de muestra.
C) Intento de traducción.
D) Prueba de datos de muestra en la computadora.
E) Prueba por un grupo selecto de usuarios potenciales.

4) Documentación del programa: Consiste en describir por escrito a nivel técnico los procedimientos relacionados con el programa y su modo de uso. También se debe documentar el programa para que sea más entendible.

¿Para quienes son la documentación?
-Usuarios.
-Operadores.
-Programadores.
-Analistas del sistema.
Usar los conceptos básicos de la programación y el ciclo de vida del software.
Sistema binario: Es un sistema en el que los números se representan utilizando solamente las cifras de 0 y 1. Los ordenadores trabajan internamente con dos niveles de voltaje por la que su sistema de enumeración es el sistema binario.
Un número binario puede ser representado por cualquier secuencia de bits que a su vez pueden ser representados por cualquier mecanismo capaz de estar en dos estados exclusivos. Las secuencias podrían ser interpretadas como el mismo valor binario numérico.

1010011010
1-1--11-1-


Suma de números binarios:
Las posibles combinaciones al sumar dos bits son:

0+0=0
0+1=1
1+0=1
1+1=10 al sumar 1+1 siempre nos llevamos 1 a la siguiente operación.

Ejemplo

01100
+10011
11111

Resta de números binarios:
0-0=0
1-0=1
1-1=0
0-1=10=1, el digito 1 se toma prestado de la posición siguiente.

Ejemplo
110001
-101010
0111111
Desarrollar la lógica computacional mediante líneas de razonamiento lógico.
Lógicas (evaluables)
Abiertas (las variables cambian)
Indeterminadas (no pueden ser variables, mi evaluables)

Ejemplos:

1)5=5= Lógica

2) X+8-1= Indeterminada

3) A+B+C=D= Abierta
Desarrollar la lógica computacional mediante líneas de razonamiento lógico.
Conexiones lógicas binarias

Conjunción
dos preposiciones que se elevan como p y q
p^q and

Disyunción
con que alguna proposición se cumpla se cumple la combinación
pvq or

Condicional
si p entonces q
p->q if

Bicondicional
p si solo q
p<->q if the

“La mesa es marrón y el encerado es verde conjunción
p ^ q


llueve hace frío llueve o hace frío disyunción
p V q


hace frío SI llueve ENTONCES hace frío condicional
p→q
hace frío SI SÓLO SI llueve ENTONCES hace frío bicondicional
p↔q
Desarrollar la lógica computacional mediante líneas de razonamiento lógico.
Desarrollar la lógica computacional mediante líneas de razonamiento lógico.
┐Not (Niega todo)

Ejemplos:

1) mi hermana come pizza
mi hermana no come pizza
2) el zapato es negro
el zapato no es negro
3) el auto tiene llantas
el auto no tiene llantas
Razonamiento lógico jerarquía de operadores.
Un operador es un símbolo o palabra que significa que se ha de realizar cierta acción entre uno o dos valores que son llamados operando.
Tipos de Operadores:
a) Aritméticos (su resultado es un número): potencia, *, /, mod, div, +, -
b) Relacionales (su resultado es un valor de verdad): =, <, >, <=, >=, <>
c) Lógicos o Booleanos (su resultado es un valor de verdad): not, and, or
d) Alfanuméricos: + (concatenación)
e) Asociativos. El único operador asociativo es el paréntesis ( ), el cual permite indicar en qué orden deben realizarse las operaciones. Cuando una expresión se encuentra entre paréntesis, indica que las operaciones que están dentro de ellos deben realizarse primero. Si en una expresión se utilizan más de un paréntesis se deberá proceder primero con los que se encuentren más hacia el centro de la expresión.
Jerarquía de Operaciones:
( )
signo
Potencia
Producto y
división
Div
Mod
Suma y resta
Concatenación
Relacionales
Negación
And
Or

lunes, 15 de marzo de 2010

¿Que espero de mi carrera?

Me gustaría desarrollar al máximo ya que creo que en el futuro será muy necesario todo acerca de la computación.

Me gustaría especializarme en ingeniero en sistemas computacionales y desarrollar buenos programas en el área, me gustaría inventar un sistema operativo inteligente para los ciegos ya que ellos son de los que más ocupan mucho de nuestra ayuda y ser importante y reconocido por mis habilidades y trayectoria, saber bien y entenderle mejor e incluso poder crear varios tipos de sistemas operativos, me gustaría poder inventar uno que sea competente y ser conforme mi carrera e inventar programas para escuelas, empresas, negocios, hospitales y en cualquier otro lado que se pueda ocupar.

Así poder evitar caos y problemas en el área del software y la computación pero para eso tengo que ser muy buen estudiante y cumplir con mis obligaciones y responsabilidades para poder terminar al menos horita la preparatoria ya que esta es vital para seguir hacia mi carrera

Y después seguirle a la universidad y acabar la carrera, entonces con eso yo pienso y quiero esperar de mi carrera que algún día terminare y así empezar a ejercerla y ser alguien de bien para no desviarme de mi objetivo en la vida y enseñar a la gente que no le entienda así como crear programas para dichas personas que no se les haga tan fácil lo que es la computación y sus funciones como sus programas oh archivos internos que se les haga mas difícil